drukuj
icon icon

Kurs Microsoft Fabric w praktyce: od Lakehouse do Apache Spark – kompleksowa analityka danych

icon

Proces szkoleniowy

Analiza potrzeb szkoleniowych

Jeśli masz życzenie dotyczące programu szkolenia, przeprowadzimy dla Ciebie analizę potrzeb szkoleniowych, która będzie wskazówką dla nas, na jakie aspekty programu położyć większy nacisk – tak, by program szkolenia spełniał konkretne potrzeby.

Program szkolenia

1. Wprowadzenie do Microsoft Fabric

  • omówienie architektury i kluczowych funkcjonalności,
  • korzyści z wdrożenia platformy,
  • rola zespołów ds. danych oraz infrastruktura sieci szkieletowej.

2. Konfiguracja i aktywacja platformy

  • praktyczne aspekty konfiguracji,
  • proces włączania i pierwszych kroków,
  • najlepsze praktyki wdrożenia.

3. Koncepcja Lakehouse

  • definicja Lakehouse jako nowoczesnego podejścia do analizy danych,
  • różnice między tradycyjnymi magazynami danych a Lakehouse,
  • przykłady zastosowań w Microsoft Fabric.

4. Praca z Fabric Lakehouse

  • eksploracja danych w środowisku Lakehouse,
  • przekształcanie danych,
  • wizualizacja wyników analiz.

5. Wprowadzenie do Apache Spark

  • podstawy architektury i wymagań dla Spark,
  • konfiguracja środowiska Spark,
  • inicjalizacja sesji i uruchomienie platformy.

6. Operacje na danych w Apache Spark

  • ładowanie danych do Spark DataFrame,
  • transformacje danych i przygotowanie do analizy,
  • praca z danymi przy użyciu języka SQL oraz interfejsu API Spark SQL.

7. Wizualizacja danych w Spark

  • techniki prezentacji wyników analiz,
  • wykorzystanie narzędzi  wizualizacyjnych,
  • optymalizacja prezentacji danych.

8. Praca z tabelami Delta Lake

  • omówienie koncepcji i zalet Delta Lake,
  • tworzenie i modyfikacja tabel różnicowych,
  • wersjonowanie danych i historia zmian.

9. Pozyskiwanie danych za pomocą przepływów Gen2

  • podstawy działania przepływów danych (Gen2),
  • korzyści i ograniczenia rozwiązania,
  • przykłady integracji przepływów w Microsoft Fabric.

10. Automatyzacja i monitorowanie potoków danych

  • wprowadzenie do potoków w usłudze Data Factory,
  • praktyczne ćwiczenia kopiowania danych i korzystania z szablonów,
  • techniki uruchamiania oraz monitorowania przepływów danych.

Opieka poszkoleniowa

W ramach opieki poszkoleniowej masz do wyboru jedną z dwóch możliwych form kontaktu z trenerem, w przeciągu 1 roku po zakończonym szkoleniu:

  • konsultację telefoniczną,
  • na 2 godzinne konsultacje online z trenerem.

Metody szkolenia

  • wykład,
  • mini-prezentacja,
  • praca warsztatowa z komputerem,
  • ćwiczenia i case study,
  • praca indywidualna z trenerem.

Certyfikat

  • certyfikat w języku polskim, numer Wpisu do Rejestru Instytucji Szkoleniowych 2.12/00238/2015,
  • certyfikat w języku angielskim na życzenie.