drukuj
icon icon

Kurs AI Modeling: od surowych danych do inteligentnych modeli

icon

Proces szkoleniowy

Analiza potrzeb szkoleniowych

Jeśli masz życzenie dotyczące programu szkolenia, przeprowadzimy dla Ciebie analizę potrzeb szkoleniowych, która będzie wskazówką dla nas, na jakie aspekty programu położyć większy nacisk – tak, by program szkolenia spełniał konkretne potrzeby.

Program szkolenia

1. Podstawy sztucznej inteligencji i uczenia maszynowego

  • definicje i kluczowe pojęcia: sztuczna inteligencja (AI), uczenie maszynowe (ML), uczenie głębokie (DL) różnice między AI, ML a klasycznym programowaniem podstawowe przykłady działania AI w praktyce,
  • współczesne trendy: generatywna AI, duże modele językowe (LLM) Prompt Engineering w pigułce,
  • podstawy tworzenia skutecznych promptów (jasność, kontekst, precyzja),
  • techniki: role prompting, chain-of-thought, few-shot vs. zero-shot praktyczne przykłady użycia promptów w analizie danych i pracy z AI.

2. Rodzaje danych i ich charakterystyka

  • dane surowe i przetworzone – czym się różnią i kiedy są użyteczne dane strukturalne (tabele, bazy danych) vs. niestrukturalne (teksty, obrazy, audio) znaczenie metadanych i opisów kontekstu.

3. Metody pozyskiwania danych

  • źródła wewnętrzne (systemy ERP, CRM, arkusze Excel) i zewnętrzne (open data, dostawcy danych) API, sensory IoT i strumieniowanie danych w czasie rzeczywistym aspekty prawne i etyczne pozyskiwania danych.

4. Wyzwania związane z danymi

  • jakość danych: brakujące wartości, nieaktualność, błędy pomiarowe kompletność i spójność zbiorów danych heterogeniczność – różne formaty, języki, źródła.

5. Zbieranie i gromadzenie danych

  • projektowanie procesów zbierania danych (manualne, automatyczne) narzędzia i repozytoria do przechowywania danych (bazy SQL/NoSQL, data lakes) bezpieczeństwo i ochrona danych osobowych.

6. Czyszczenie danych i przygotowanie do analizy

  • uzupełnianie braków: imputacja, usuwanie, zastępowanie wartościami domyślnymi wykrywanie i usuwanie duplikatów, błędów logicznych wstępna walidacja i kontrola jakości danych.

7. Transformacja danych

  • normalizacja i standaryzacja – wyrównywanie skali i zakresu danych kodowanie zmiennych kategorycznych (one-hot encoding, label encoding) inżynieria cech (feature engineering) jako przygotowanie do modelowania.

8. Eksploracyjna analiza danych (EDA)

  • wizualizacja danych: wykresy, histogramy, heatmapy, diagramy korelacji identyfikacja trendów, zależności i ukrytych wzorców w danych wykrywanie anomalii i wartości odstających (outliers) jako element przygotowania do modelowania.

Opieka poszkoleniowa

W ramach opieki poszkoleniowej masz do wyboru jedną z dwóch możliwych form kontaktu z trenerem, w przeciągu 1 roku po zakończonym szkoleniu:

  • konsultację telefoniczną,
  • na 2 godzinne konsultacje online z trenerem.

Metody szkolenia

  • wykład,
  • mini-prezentacja,
  • praca warsztatowa z komputerem,
  • ćwiczenia i case study,
  • praca indywidualna z trenerem.

Certyfikat

  • certyfikat w języku polskim, numer Wpisu do Rejestru Instytucji Szkoleniowych 2.12/00238/2015,
  • certyfikat w języku angielskim na życzenie.