Kto w firmie odpowiada za zgodność z AI Act?

Kto w firmie odpowiada za zgodność z AI Act? Artykuł omawia kluczowe role działów prawnych, IT i zarządu w zapewnieniu zgodności z unijnym rozporządzeniem.
20 stycznia 2026
blog
Poziom: Średnio zaawansowany

Artykuł przeznaczony dla compliance officerów, prawników in-house, menedżerów oraz zespołów IT i osób zarządzających wdrażających lub nadzorujących systemy AI w organizacji.

Z tego artykułu dowiesz się

  • Jakie obowiązki nakłada AI Act na firmy tworzące i wykorzystujące systemy sztucznej inteligencji?
  • Jak dzielą się role i odpowiedzialności za zgodność z AI Act między compliance, dział prawny, IT oraz zarząd?
  • Jak zorganizować współpracę między działami i jakie działania rekomenduje się, aby przygotować organizację do AI Act?

Wprowadzenie do AI Act i jego znaczenia dla firm

W ostatnich latach rozwój sztucznej inteligencji (AI) znacząco przyspieszył, a jej zastosowania obejmują coraz więcej sektorów gospodarki – od finansów i logistyki po zdrowie czy administrację publiczną. W odpowiedzi na te zmiany, Unia Europejska przyjęła Artificial Intelligence Act (AI Act), pierwsze w historii kompleksowe rozporządzenie regulujące wykorzystanie sztucznej inteligencji na jednolitym rynku europejskim.

AI Act wprowadza system oceny ryzyka, który klasyfikuje systemy AI według stopnia zagrożenia, jakie mogą stwarzać dla praw i bezpieczeństwa obywateli. W zależności od poziomu ryzyka, firmy muszą spełniać określone wymagania dotyczące dokumentacji, przejrzystości, nadzoru i zarządzania danymi. Oznacza to, że przedsiębiorstwa korzystające z systemów AI – zarówno jako ich twórcy, jak i użytkownicy – będą musiały dostosować swoje procesy operacyjne, techniczne i organizacyjne do nowych przepisów.

Dla firm wdrażających technologię AI, AI Act to nie tylko wyzwanie regulacyjne, ale również szansa na budowanie zaufania klientów i partnerów poprzez zapewnienie bezpiecznego i etycznego wykorzystania sztucznej inteligencji. Zgodność z nowym rozporządzeniem może stać się więc ważnym elementem przewagi konkurencyjnej na rynku europejskim.

Zakres odpowiedzialności za zgodność z AI Act

AI Act, czyli unijne rozporządzenie dotyczące sztucznej inteligencji, nakłada na firmy szereg obowiązków związanych z projektowaniem, wdrażaniem i nadzorowaniem systemów AI. Regulacja ta wprowadza ramy prawne, które mają na celu zapewnienie bezpiecznego i etycznego wykorzystywania sztucznej inteligencji w Unii Europejskiej. W związku z tym, odpowiedzialność za zgodność z AI Act jest rozproszona pomiędzy różne role i działy w organizacji.

Zakres odpowiedzialności za zgodność z AI Act zależy w dużej mierze od rodzaju systemów AI wykorzystywanych przez firmę oraz roli, jaką organizacja pełni w ich cyklu życia — czy jest dostawcą, użytkownikiem, importerem, czy dystrybutorem. Przepisy wymagają, aby każda z tych ról wypełniała określone obowiązki w zakresie oceny ryzyka, dokumentacji technicznej, nadzoru nad działaniem systemów oraz zapewnienia przejrzystości dla użytkowników końcowych.

W praktyce oznacza to, że zgodność z AI Act nie leży wyłącznie w gestii jednego działu lub osoby. Kluczowe obszary odpowiedzialności obejmują:

  • Compliance i nadzór regulacyjny – odpowiedzialność za monitorowanie zmian prawnych i wdrażanie procedur zgodności.
  • Prawne aspekty wdrożenia – interpretacja przepisów i ich przełożenie na konkretne obowiązki dla firmy.
  • Techniczna implementacja – zapewnienie, że systemy spełniają wymogi techniczne i są odpowiednio testowane oraz monitorowane.
  • Zarządzanie strategiczne – podejmowanie decyzji na poziomie kierownictwa dotyczących ryzyka regulacyjnego i odpowiedzialności biznesowej.

Ze względu na wieloetapowy charakter wdrażania systemów AI oraz różnorodność wymagań AI Act, konieczna jest ścisła współpraca pomiędzy działami. Każda organizacja powinna wypracować własny model podziału obowiązków, który uwzględnia specyfikę jej działalności oraz charakter wykorzystywanych technologii. Ten wpis powstał w odpowiedzi na zagadnienia, które regularnie pojawiają się na szkoleniach prowadzonych przez Cognity.

Rola compliance officerów w nadzorze nad zgodnością

W kontekście rozporządzenia AI Act, compliance officerzy odgrywają kluczową rolę w zapewnieniu, że organizacja przestrzega nowych wymogów dotyczących wykorzystania systemów sztucznej inteligencji. Ich zadaniem nie jest jedynie formalna kontrola dokumentacji, ale również aktywne uczestnictwo w procesie wdrażania i monitorowania zgodności.

Compliance officer pełni funkcję łącznika między przepisami prawa a praktyką operacyjną w firmie. Odpowiada za identyfikację ryzyk prawnych, etycznych i operacyjnych związanych z AI oraz rekomendowanie działań korygujących lub prewencyjnych. W kontekście AI Act do jego zadań należy przede wszystkim:

  • Monitorowanie zmian legislacyjnych i interpretacji dotyczących AI Act.
  • Udział w klasyfikacji systemów AI na podstawie poziomu ryzyka (np. minimalne, ograniczone, wysokie).
  • Koordynacja audytów wewnętrznych oraz przygotowanie dokumentacji zgodności.
  • Nadzór nad mechanizmami zgłaszania i śledzenia incydentów związanych z AI.
  • Szkolenie personelu w zakresie obowiązujących norm i procedur.

W odróżnieniu od działu prawnego, który koncentruje się na interpretacji przepisów, compliance officerzy skupiają się na operacyjnym wdrażaniu wymagań w codziennym funkcjonowaniu organizacji. Współpracują przy tym zarówno z działami technicznymi, jak i z kadrą zarządzającą.

Obszar działania Compliance Officer Dział Prawny
Monitorowanie zgodności operacyjnej Tak Nie
Interpretacja przepisów Częściowo Tak
Szkolenia wewnętrzne Tak Wsparcie
Koordynacja audytów zgodności Tak Nie

Jako osoby odpowiedzialne za nadzór nad przestrzeganiem regulacji, compliance officerzy muszą także nadążać za dynamicznie rozwijającym się krajobrazem regulacyjnym AI oraz pozostawać w dialogu z organami nadzorczymi i interesariuszami wewnętrznymi. W poszerzeniu wiedzy i kompetencji pomocny może być Kurs AI Act w praktyce – compliance, ryzyka i obowiązki.

Znaczenie działu prawnego w interpretacji i wdrażaniu przepisów

Dział prawny odgrywa kluczową rolę w zapewnieniu zgodności systemów sztucznej inteligencji z przepisami AI Act. Nowe regulacje Unii Europejskiej nakładają szereg obowiązków na firmy opracowujące, wdrażające lub wykorzystujące systemy AI, dlatego właściwa interpretacja przepisów jest fundamentem dalszych działań operacyjnych i technicznych.

W kontekście AI Act, dział prawny pełni funkcję łącznika między abstrakcyjnym językiem prawa a realiami biznesowymi i technologicznymi firmy. Główne zadania tego działu obejmują:

  • Analizę prawnych definicji i obowiązków – np. określenie, czy dany system AI podlega klasyfikacji jako „wysokiego ryzyka”.
  • Tworzenie wewnętrznych polityk zgodności – opracowanie standardów i procedur, które zapewniają zgodność działalności firmy z AI Act.
  • Współpracę z działem IT i compliance – w celu przekładania wymogów prawnych na konkretne wymagania systemowe i proceduralne.

Rola działu prawnego polega również na wskazaniu, które elementy AI Act wymagają interpretacji dostosowanej do specyfiki branży i działalności firmy. W tym kontekście dział prawny staje się nie tylko strażnikiem zgodności, ale także doradcą strategicznym dla całej organizacji. W Cognity mamy doświadczenie w pracy z zespołami, które wdrażają to rozwiązanie – dzielimy się tym także w artykule.

Poniższa tabela przedstawia przykładowe różnice w podejściu do przepisów między działem prawnym a technicznym:

Aspekt Dział prawny Dział IT
Ocena kategorii ryzyka Analiza zgodności z definicjami prawnymi Identyfikacja funkcjonalności systemu AI
Wymogi dokumentacyjne Tworzenie polityk i procedur zgodnych z AI Act Generowanie i archiwizacja logów oraz danych modelu
Przejrzystość działania AI Interpretacja obowiązków informacyjnych wobec użytkownika Zastosowanie metod wyjaśnialnej AI (XAI)

Przykładowo, jeśli dział IT wdraża model rekomendacyjny w aplikacji e-commerce, dział prawny musi ocenić, czy wymagane jest ujawnienie, że klient ma do czynienia z systemem AI, oraz czy istnieje obowiązek zapewnienia możliwości łatwego wyłączenia tego typu funkcjonalności, jeśli system spełnia kryteria wysokiego ryzyka.

W praktyce, wspólnym celem wszystkich działów zaangażowanych w projekt AI jest osiągnięcie zgodności z AI Act – jednak to dział prawny wyznacza ramy interpretacyjne, które umożliwiają bezpieczne i zgodne prawnie wdrażanie technologii.

Wkład działu IT w zapewnienie technicznej zgodności systemów AI

Dział IT odgrywa kluczową rolę w implementacji zgodnych z AI Act systemów sztucznej inteligencji, dbając o techniczne aspekty ich projektowania, wdrażania i monitorowania. To specjaliści IT są odpowiedzialni za zapewnienie, że wykorzystywane technologie spełniają wymagania w zakresie bezpieczeństwa, przejrzystości, nadzorowalności oraz zarządzania ryzykiem określone w rozporządzeniu.

W praktyce oznacza to konieczność ścisłej współpracy z innymi działami firmy oraz stosowania konkretnych rozwiązań technologicznych wspierających zgodność regulacyjną. Poniżej przedstawiono główne obszary odpowiedzialności działu IT w kontekście AI Act:

  • Ocena ryzyka technicznego: analiza potencjalnych zagrożeń związanych z funkcjonowaniem systemów AI, w tym ich podatności na błędy i niewłaściwe działanie.
  • Implementacja środków kontroli: wdrażanie zabezpieczeń programistycznych i architektonicznych, które ograniczają ryzyko naruszeń.
  • Monitorowanie i rejestrowanie danych: zapewnienie odpowiedniego logowania działania systemów AI, co jest niezbędne dla audytowalności oraz wykrywania nieprawidłowości.
  • Transparentność algorytmiczna: tworzenie rozwiązań umożliwiających zrozumienie decyzji podejmowanych przez algorytmy – np. poprzez explainable AI (XAI).
  • Zarządzanie danymi treningowymi: kontrola jakości i źródeł danych wykorzystywanych do trenowania modeli AI, zgodnie z wymogami uczciwości i braku uprzedzeń.

Przykład prostego mechanizmu rejestrowania działania modelu AI w Pythonie może wyglądać następująco:

import logging

logging.basicConfig(filename='ai_model.log', level=logging.INFO)

# Przykład zapisu działania modelu
logging.info('Model uruchomiony z parametrami: learning_rate=0.01')

W tabeli poniżej zestawiono przykładowe zadania działu IT z odpowiadającymi im wymaganiami AI Act:

Obszar techniczny Wymaganie AI Act
Monitorowanie działania systemu Audytowalność i identyfikowalność decyzji
Bezpieczeństwo infrastruktury Minimalizacja ryzyka dla użytkowników
Kontrola danych szkoleniowych Brak uprzedzeń i przejrzystość źródeł danych
Dokumentacja techniczna Zgodność z obowiązkiem sprawozdawczości

Odpowiedzialność działu IT nie ogranicza się jedynie do zapewnienia zgodności podczas tworzenia systemów, ale obejmuje również ich późniejsze utrzymanie i aktualizację zgodnie z ewoluującymi przepisami AI Act. W celu pogłębienia wiedzy na temat łączenia aspektów technologicznych z wymogami prawnymi, warto zapoznać się z Kursem AI a RODO – jak łączyć zgodność regulacyjną z wdrażaniem nowych technologii.

Odpowiedzialność zarządu i kierownictwa firmy

W świetle przepisów AI Act zarząd i wyższe kierownictwo firmy odgrywają kluczową rolę w zapewnieniu zgodności organizacji z wymogami regulacyjnymi dotyczącymi sztucznej inteligencji. W odróżnieniu od funkcji specjalistycznych, takich jak działy prawne czy techniczne, to właśnie osoby na najwyższych szczeblach struktury organizacyjnej ponoszą strategiczną odpowiedzialność za wdrożenie odpowiednich procesów, polityk i nadzoru nad rozwojem oraz użyciem systemów AI.

AI Act wyraźnie wskazuje, że odpowiedzialność za przestrzeganie przepisów nie kończy się na działach operacyjnych – musi być zakorzeniona w kulturze zarządzania i podejmowania decyzji. Zarząd powinien mieć świadomość ryzyk związanych z wykorzystaniem AI i zapewniać, że cele biznesowe nie są realizowane kosztem zgodności z prawem czy bezpieczeństwa użytkowników.

Poniższa tabela przedstawia podstawowe aspekty odpowiedzialności zarządu w kontekście AI Act:

Obszar Zakres odpowiedzialności zarządu
Strategia zgodności Wyznaczanie kierunku działań zgodnych z AI Act jako elementu strategii biznesowej
Zarządzanie ryzykiem Ocenianie i zatwierdzanie systemów zarządzania ryzykiem związanym z AI
Nadzór nad wdrożeniem Zapewnienie, że wdrażane rozwiązania są zgodne z regulacjami i posiadają odpowiedni nadzór
Szkolenia i świadomość Inicjowanie i wspieranie programów edukacyjnych dotyczących etycznego i zgodnego wykorzystania AI
Odpowiedzialność prawna Bycie formalnie odpowiedzialnym za naruszenia AI Act, szczególnie w przypadku braku należytego nadzoru

Zarząd nie musi być ekspertem technologicznym, ale powinien podejmować decyzje w oparciu o rzetelne informacje oraz wspierać kulturę organizacyjną sprzyjającą zgodności, przejrzystości i etycznemu podejściu do sztucznej inteligencji. Niedopełnienie tego obowiązku może skutkować nie tylko sankcjami administracyjnymi, ale również utratą zaufania klientów i inwestorów.

Współpraca między działami w celu zapewnienia zgodności

Zgodność z przepisami AI Act to wyzwanie, które wykracza poza kompetencje pojedynczego działu. Aby skutecznie wdrożyć i monitorować zgodność z nowymi regulacjami, firmy muszą postawić na interdyscyplinarną współpracę między różnymi obszarami organizacyjnymi. AI Act nie dotyczy wyłącznie kwestii prawnych, lecz obejmuje także aspekty techniczne, etyczne, operacyjne i zarządcze, co wymusza ścisłą koordynację działań.

Każdy dział wnosi unikalną perspektywę i kompetencje:

  • Działy prawne interpretują przepisy i oceniają ryzyko regulacyjne.
  • Compliance officerzy monitorują wdrażanie polityk zgodności i reagują na uchybienia.
  • Zespoły IT odpowiadają za techniczne dostosowanie systemów AI i nadzór nad ich działaniem.
  • Zarząd i kadra kierownicza podejmują decyzje strategiczne i zapewniają odpowiednie zasoby.

Efektywna współpraca wymaga nie tylko jasnego podziału obowiązków, ale również zdefiniowanych procesów komunikacji i wymiany informacji. Regularne spotkania międzydziałowe, wspólne procedury oceny ryzyka czy szkolenia zwiększające świadomość regulacyjną to tylko niektóre praktyki wspierające spójne podejście do zgodności z AI Act.

Wdrożenie AI Act może być również impulsem do budowania kultury odpowiedzialnego rozwoju sztucznej inteligencji, w której każdy dział rozumie swoją rolę i wpływ na ostateczny kształt i funkcjonowanie systemów AI. Tylko w ramach synergii różnych kompetencji możliwe jest pełne i efektywne zapewnienie zgodności z nowym unijnym prawem.

Podsumowanie i rekomendacje dla organizacji

Wprowadzenie regulacji AI Act przez Unię Europejską stanowi istotny krok w kierunku ujednolicenia zasad stosowania sztucznej inteligencji w sektorze prywatnym i publicznym. Dla organizacji oznacza to konieczność wdrożenia procedur, które zapewnią zgodność systemów AI z wymaganiami prawnymi oraz etycznymi. AI Act klasyfikuje systemy sztucznej inteligencji według poziomu ryzyka, co przekłada się na zróżnicowane obowiązki względem projektowania, wdrażania i monitorowania rozwiązań AI.

Odpowiedzialność za zgodność z AI Act nie spoczywa na jednej jednostce w firmie – wymaga współpracy różnych działów, w tym prawnego, IT, compliance oraz zarządu. Każdy z tych obszarów wnosi unikalną perspektywę i kompetencje, które razem tworzą spójne podejście do zgodności z regulacją.

Rekomendacje dla organizacji:

  • Przeprowadzenie audytu systemów AI – identyfikacja zastosowań AI w organizacji oraz określenie ich poziomu ryzyka według AI Act.
  • Powołanie interdyscyplinarnego zespołu ds. zgodności z AI Act – umożliwi skuteczne wdrażanie wymagań regulacyjnych z uwzględnieniem aspektów prawnych, technicznych i organizacyjnych.
  • Stworzenie strategii zgodności – opracowanie planu działań dostosowanego do specyfiki działalności firmy i rodzaju wykorzystywanych systemów AI.
  • Szkolenie pracowników – zapewnienie świadomości regulacyjnej wśród kluczowych osób odpowiedzialnych za wdrażanie i nadzorowanie systemów AI.
  • Monitorowanie zmian legislacyjnych – AI Act to dynamicznie rozwijający się obszar, dlatego bieżące śledzenie aktualizacji i wytycznych jest niezbędne dla zachowania zgodności.

Wczesne przygotowanie organizacji do wymagań stawianych przez AI Act nie tylko minimalizuje ryzyko prawne, ale także wspiera budowanie zaufania do technologii AI w oczach klientów, partnerów i regulatorów. W Cognity uczymy, jak skutecznie radzić sobie z podobnymi wyzwaniami – zarówno indywidualnie, jak i zespołowo.

icon

Formularz kontaktowyContact form

Imię *Name
NazwiskoSurname
Adres e-mail *E-mail address
Telefon *Phone number
UwagiComments