drukuj
icon icon

Kurs AI Act w praktyce – compliance, ryzyka i obowiązki

icon

Proces szkoleniowy

Analiza potrzeb szkoleniowych

Jeśli masz życzenie dotyczące programu szkolenia, przeprowadzimy dla Ciebie analizę potrzeb szkoleniowych, która będzie wskazówką dla nas, na jakie aspekty programu położyć większy nacisk – tak, by program szkolenia spełniał konkretne potrzeby.

Program szkolenia

1. AI Act – podstawy i kontekst regulacji

  • czym jest AI Act? Cel i powody regulacji,
  • zakres stosowania – kto i co podlega regulacjom?
  • klasyfikacja systemów AI według poziomu ryzyka (niedozwolone, wysokiego ryzyka, ograniczone ryzyko, minimalne ryzyko),
  • kodeks Dobrych Praktyk UE w zakresie AI – rola samoregulacji, dobrowolnych standardów i kodeksów etycznych.

2. Obowiązki organizacji w zakresie AI compliance

  • obowiązki dostawców, użytkowników i importerów AI,
  • wymagania dotyczące transparentności i nadzoru,
  • dokumentacja techniczna i ocena zgodności systemów AI,
  • audyty i monitorowanie – jak zapewnić zgodność z regulacjami?
  • tworzenie regulaminów wewnętrznych dotyczących korzystania z AI – polityki, procedury i praktyczne wzory,
  • przykłady wdrażania compliance w organizacjach.

3. AI Act a RODO i bezpieczeństwo danych

  • wpływ AI Act na ochronę danych osobowych,
  • AI a zasady przetwarzania danych wg RODO,
  • profilowanie i automatyczne podejmowanie decyzji – jak unikać naruszeń?
  • DPIA (Data Protection Impact Assessment) dla systemów AI,
  • co użytkownicy „wrzucają” do AI – jak chronić dane wejściowe i wyjściowe?
  • wycieki danych, cyberhigiena i polityka bezpieczeństwa informacji w AI,
  • przykłady naruszeń RODO przez AI i ich konsekwencje prawne.

4. AI Act a cyberbezpieczeństwo

  • AI jako potencjalne zagrożenie dla cyberbezpieczeństwa,
  • wymogi AI Act w zakresie bezpieczeństwa systemów AI,
  • systemy bezpieczeństwa AI – weryfikacja i kontrola przetwarzania danych wejściowych i wyjściowych,
  • odporność systemów na manipulacje i ataki (adversarial examples).

5. Etyka i odpowiedzialność AI

  • etyczne aspekty sztucznej inteligencji – fairness i unikanie dyskryminacji,
  • Bias a AI Act:
    • skąd się bierze bias,
    • przykłady dyskryminacji w AI,
    • narzędzia i procedury zapobiegania biasowi.
  • odpowiedzialność za decyzje podejmowane przez AI – kto odpowiada za błędy AI?
  • explainability i transparentność AI – jak zapewnić zrozumiałość działania systemów.

6. Zarządzanie ryzykiem AI

  • ocena ryzyka i zgodność z regulacjami,
  • AI Governance i strategie zarządzania AI w firmie,
  • monitorowanie i audyty systemów AI,
  • zagrożenia związane z deepfakes i manipulacją informacją.

7. Wdrażanie AI w organizacjach

  • AI Act a innowacje technologiczne – ograniczenia czy szansa na bezpieczny rozwój?
  • AI w HR i rekrutacji – jakie ograniczenia wprowadza AI Act?
  • AI w finansach i bankowości – zgodność z regulacjami AML,
  • AI w sektorze zdrowia – zastosowania, ryzyka i wymogi regulacyjne.

8. Techniczne aspekty AI a AI Act

  • standaryzacja i certyfikacja systemów AI,
  • wpływ regulacji na rozwój modeli Open Source i LLM (Large Language Models),
  • Data governance – zarządzanie danymi w kontekście AI Act,
  • bezpieczeństwo systemów AI – odporność na ataki i manipulacje,
  • wpływ AI na prawo autorskie – kto jest właścicielem treści generowanych przez AI?

Opieka poszkoleniowa

W ramach opieki poszkoleniowej masz do wyboru jedną z dwóch możliwych form kontaktu z trenerem, w przeciągu 1 roku po zakończonym szkoleniu:

  • konsultację telefoniczną,
  • na 2 godzinne konsultacje online z trenerem.

Metody szkolenia

  • wykład,
  • mini-prezentacja,
  • praca warsztatowa z komputerem,
  • ćwiczenia i case study,
  • praca indywidualna z trenerem.

Certyfikat

  • certyfikat w języku polskim, numer Wpisu do Rejestru Instytucji Szkoleniowych 2.12/00238/2015,
  • certyfikat w języku angielskim na życzenie.