AI Act a dostawcy i odbiorcy technologii – kto ponosi odpowiedzialność?

Poznaj, kto ponosi odpowiedzialność za sztuczną inteligencję zgodnie z AI Act – od dostawców po użytkowników końcowych. Kluczowe role i obowiązki.
02 czerwca 2025
blog
Poziom: Średnio zaawansowany

Artykuł przeznaczony dla osób wdrażających lub używających AI w organizacjach, zespołów compliance, menedżerów oraz specjalistów IT zainteresowanych odpowiedzialnością i wymaganiami AI Act.

Z tego artykułu dowiesz się

  • Kto i w jakim zakresie ponosi odpowiedzialność za błędy i skutki działania systemów AI w całym cyklu ich życia?
  • Jakie obowiązki mają dostawcy technologii, integratorzy (wdrożeniowcy) oraz użytkownicy końcowi w kontekście bezpieczeństwa, monitorowania i zgodności?
  • Jak AI Act klasyfikuje systemy AI według poziomu ryzyka i jakie konsekwencje prawne oraz etyczne grożą za naruszenia?

Wprowadzenie do odpowiedzialności w kontekście AI

Wraz z dynamicznym rozwojem technologii sztucznej inteligencji (AI), pojawia się coraz więcej pytań dotyczących odpowiedzialności za jej projektowanie, wdrażanie i użytkowanie. Systemy AI coraz częściej podejmują decyzje mające realny wpływ na życie ludzi — od rekomendacji medycznych, przez decyzje kredytowe, aż po autonomiczne pojazdy. W takim środowisku konieczne staje się jasne określenie, kto ponosi odpowiedzialność w przypadku błędów, nadużyć lub nieprzewidzianych skutków działania algorytmów.

Odpowiedzialność w kontekście AI nie jest jednoznaczna i zależy od wielu czynników, takich jak rola danego podmiotu w łańcuchu dostarczania technologii, sposób jej wykorzystania czy kontekst prawny i etyczny. Różne podmioty — w tym dostawcy technologii, integratorzy systemów, użytkownicy końcowi oraz instytucje nadzorujące — mają odmienne obowiązki i zakresy odpowiedzialności.

Na przykład w przypadku błędnej decyzji systemu AI wykorzystującego analizę obrazu w diagnostyce medycznej, odpowiedzialność może być rozłożona między twórcę algorytmu, firmę wdrażającą rozwiązanie w placówce medycznej oraz lekarza korzystającego z systemu przy ocenie wyników. Pytanie brzmi: czy zawiódł algorytm, konfiguracja systemu, czy może użytkownik końcowy?

Wprowadzenie regulacji, takich jak europejski AI Act, ma na celu uporządkowanie tej złożonej siatki zależności i przypisanie odpowiedzialności konkretnym uczestnikom procesu tworzenia i użytkowania AI. Zrozumienie tych mechanizmów pozwala nie tylko na świadome korzystanie z technologii, ale również na minimalizowanie ryzyk prawnych i etycznych związanych z jej działaniem.

Odpowiedzialność w AI to zatem nie tylko kwestia techniczna, ale także społeczna, prawna i biznesowa. Wymaga współpracy wielu interesariuszy oraz ciągłej adaptacji do zmieniającego się krajobrazu technologicznego i regulacyjnego.

Rola i obowiązki dostawcy technologii AI

Dostawca technologii sztucznej inteligencji – rozumiany jako podmiot projektujący, rozwijający lub wdrażający modele i systemy AI – odgrywa kluczową rolę w całym cyklu życia tych rozwiązań. Odpowiedzialność dostawcy nie ogranicza się jedynie do stworzenia algorytmu, ale obejmuje również zapewnienie, że technologia spełnia określone normy jakości i bezpieczeństwa oraz jest zgodna z obowiązującym prawem, w tym europejskim rozporządzeniem AI Act.

Dostawcy AI ponoszą odpowiedzialność za:

  • Transparentność i dokumentację działania systemu – powinni dostarczyć jasne informacje o funkcjonowaniu modelu, jego ograniczeniach i potencjalnych skutkach użycia.
  • Jakość danych uczących – konieczne jest zapewnienie, że dane używane do trenowania modeli są reprezentatywne, wolne od uprzedzeń i odpowiednio zabezpieczone.
  • Identyfikację zagrożeń – dostawcy są zobowiązani do przeprowadzania oceny ryzyka i wdrażania mechanizmów minimalizujących potencjalne szkody.
  • Testowanie i monitorowanie – systemy AI muszą być testowane przed wdrożeniem oraz podlegać ciągłemu monitorowaniu podczas eksploatacji.
  • Zgodność z regulacjami – dostawca musi dostosować system do kategorii ryzyka określonej w AI Act i wdrożyć odpowiednie środki zaradcze.

Przykładowo, firma opracowująca model rekomendujący decyzje kredytowe powinna nie tylko zadbać o techniczną skuteczność algorytmu, ale też upewnić się, że decyzje nie dyskryminują ze względu na płeć, pochodzenie czy wiek. W tym celu wymagane są mechanizmy audytu i pełna kontrola nad źródłami danych oraz sposobem ich przetwarzania.

Dostawca technologii AI to więc nie tylko dostarczyciel rozwiązania, ale również aktywny uczestnik procesu zarządzania jego odpowiedzialnym wykorzystaniem.

💡 Pro tip: Wbuduj zarządzanie ryzykiem i transparentność w MLOps: utrzymuj kartę modelu, katalog źródeł danych i testy uprzedzeń/regresji, a monitoring po wdrożeniu podłącz do alertów — to ułatwi zgodność z AI Act i audyty.

Zadania i odpowiedzialność wdrożeniowców systemów AI

Wdrożeniowcy systemów sztucznej inteligencji (AI), często określani jako integratorzy lub operatorzy techniczni, pełnią kluczową rolę w łączeniu gotowych rozwiązań AI z konkretnym środowiskiem organizacyjnym. Ich zadaniem nie jest tworzenie modeli od podstaw, lecz odpowiedzialna konfiguracja, testowanie, monitorowanie oraz zapewnienie zgodności technologii z wymaganiami prawnymi, technicznymi i etycznymi.

Rola wdrożeniowca obejmuje szereg działań na styku technologii, prawa i praktyki biznesowej. W uproszczeniu, wdrożeniowiec odpowiada za:

  • Integrację systemu AI z istniejącymi narzędziami i danymi organizacji, przy uwzględnieniu bezpieczeństwa i ochrony prywatności.
  • Dostosowanie parametrów modelu do lokalnych potrzeb i kontekstu użytkowania – bez ingerencji w samą strukturę modelu.
  • Weryfikację działania systemu przed jego uruchomieniem pod kątem ryzyk, błędów i zgodności z wymaganiami użytkownika końcowego.
  • Monitorowanie systemu w czasie rzeczywistym oraz reagowanie na nieprawidłowości i błędy działania.

Wdrożeniowiec staje się tym samym istotnym ogniwem w łańcuchu odpowiedzialności – pomiędzy dostawcą technologii a końcowym użytkownikiem. Jego działania mogą wpływać na poziom ryzyka związanego z wdrożeniem AI i na faktyczną zgodność systemu z regulacjami, takimi jak AI Act.

Dla zilustrowania roli wdrożeniowca, poniżej znajdują się dwa uproszczone przykłady kodu konfiguracyjnego w ramach procesu integracji systemu AI:

# Przykład 1: Wdrożeniowiec ustawia limity progowe klasyfikatora
model.set_threshold(0.85)  # Tylko wyniki z wysoką pewnością są uznawane

# Przykład 2: Konfiguracja systemu monitorującego działania modelu
monitor = PerformanceMonitor(model)
monitor.enable_alerts(threshold=0.90)
monitor.start()

Kluczową kwestią odpowiedzialności wdrożeniowca jest także zrozumienie ograniczeń systemu oraz zapewnienie, że użytkownicy końcowi zostali odpowiednio poinformowani o sposobie jego działania, możliwych błędach oraz konsekwencjach niewłaściwego zastosowania.

Poniższa tabela przedstawia ogólne porównanie ról dostawcy, wdrożeniowca i użytkownika końcowego w kontekście ich głównych zadań:

Rola Główne zadania
Dostawca technologii Tworzenie modelu AI, zapewnienie zgodności z normami technicznymi, dokumentacja
Wdrożeniowiec Integracja i konfiguracja, testy, monitorowanie działania, raportowanie błędów
Użytkownik końcowy Stosowanie systemu zgodnie z przeznaczeniem, zgłaszanie problemów, przestrzeganie zaleceń

Podsumowując, wdrożeniowiec jest odpowiedzialny za to, by technologia AI była nie tylko użyteczna, ale przede wszystkim bezpieczna, zgodna i adekwatna do kontekstu jej zastosowania. Odpowiednie wdrożenie może znacząco zmniejszyć ryzyko błędnego działania AI i potencjalne konsekwencje prawne. Osobom zainteresowanym pogłębieniem wiedzy na temat obowiązków i ryzyk związanych z wdrażaniem rozwiązań AI w świetle europejskich regulacji polecamy Kurs AI Act w praktyce – compliance, ryzyka i obowiązki.

Obowiązki użytkowników końcowych AI

Użytkownicy końcowi systemów sztucznej inteligencji, choć często pozostają poza głównym nurtem regulacji technicznych i prawnych, mają istotny wpływ na bezpieczeństwo i etyczność wykorzystania tych technologii. Ich działania – świadome lub nie – mogą decydować o tym, czy dany system AI będzie stosowany zgodnie z przeznaczeniem, przepisami prawnymi oraz normami społecznymi.

W odróżnieniu od dostawców i integratorów technologii, użytkownicy końcowi nie mają zazwyczaj wglądu w kod źródłowy ani wpływu na architekturę modelu. Niemniej jednak, z perspektywy AI Act i innych regulacji, na ich barkach spoczywa istotna odpowiedzialność operacyjna i etyczna.

Kluczowe obowiązki użytkowników końcowych

  • Używanie systemu zgodnie z instrukcją i zakresem przeznaczenia – użytkownicy są zobowiązani do przestrzegania zaleceń producenta i nieprzekraczania ograniczeń funkcjonalnych systemu.
  • Monitorowanie działania systemu – w szczególności w przypadku systemów wysokiego ryzyka, użytkownik powinien nadzorować decyzje podejmowane przez AI i reagować na błędy lub nieprawidłowości.
  • Zgłaszanie incydentów – jeśli system zachowuje się nieprzewidywalnie lub stwarza potencjalne zagrożenie, użytkownik ma obowiązek zgłosić taki przypadek odpowiednim podmiotom.
  • Zapewnienie odpowiedniego przeszkolenia – osoby korzystające z AI powinny posiadać wiedzę niezbędną do jego obsługi i rozumieć potencjalne skutki jego działania.

Przykład praktyczny

Wyobraźmy sobie system AI wspierający decyzje kadrowe w firmie (np. selekcję CV). Nawet jeśli jest on zgodny z regulacjami technicznymi, użytkownik końcowy może naruszyć zasady, jeśli:

  • zastosuje system do oceny kompetencji, do których nie został on przeszkolony,
  • zignoruje ostrzeżenia o błędach klasyfikacji,
  • nie zapewni mechanizmu ręcznego zatwierdzania decyzji.

Minimalny przykład kodu

W kontekście platform chmurowych lub API, użytkownik końcowy często posługuje się gotowymi narzędziami. Poniżej przykład wywołania modelu AI do klasyfikacji tekstu:

import openai

response = openai.ChatCompletion.create(
  model="gpt-4",
  messages=[
    {"role": "user", "content": "Czy kandydat A pasuje na stanowisko analityka?"}
  ]
)

print(response.choices[0].message['content'])

Odpowiedzialność użytkownika polega tutaj m.in. na zapewnieniu, że pytanie nie zawiera uprzedzeń, oraz że wynik nie będzie interpretowany automatycznie bez dodatkowej analizy.

Porównanie ról

Typ podmiotu Zakres kontroli Przykładowa odpowiedzialność
Dostawca AI Projekt, dane, model Bezpieczeństwo techniczne
Integrator/Wdrożeniowiec Konfiguracja, środowisko Zgodność z przepisami
Użytkownik końcowy Stosowanie systemu Użycie zgodne z przeznaczeniem

Obowiązki użytkownika końcowego, choć często nie są techniczne, mają bezpośredni wpływ na efektywność, bezpieczeństwo i legalność użycia sztucznej inteligencji w praktyce.

💡 Pro tip: Stosuj human-in-the-loop z progami zaufania i checklistą dozwolonych użyć; loguj decyzje i zgłaszaj anomalie natychmiast, by ograniczyć ryzyko błędów i naruszeń.

AI Act – europejski akt prawny regulujący odpowiedzialność

Unijny AI Act to pierwszy kompleksowy akt prawny mający na celu uregulowanie wykorzystania sztucznej inteligencji w Unii Europejskiej. Ustanawia on ramy prawne dla opracowywania, wdrażania oraz użytkowania systemów AI w sposób bezpieczny, przejrzysty i zgodny z prawami podstawowymi. Kluczowym celem AI Actu jest przypisanie odpowiedzialności poszczególnym podmiotom uczestniczącym w cyklu życia systemu AI – od projektanta po użytkownika końcowego.

AI Act klasyfikuje systemy AI według poziomu ryzyka, co wpływa bezpośrednio na obowiązki poszczególnych stron. Wyróżnia się cztery główne kategorie:

  • Systemy zakazane – np. systemy manipulujące zachowaniem użytkownika w sposób szkodliwy.
  • Systemy wysokiego ryzyka – wykorzystywane np. w rekrutacji, opiece zdrowotnej czy infrastrukturze krytycznej.
  • Systemy ograniczonego ryzyka – wymagające podstawowych obowiązków informacyjnych.
  • Systemy minimalnego ryzyka – np. rekomendacje treści, bez szczególnych obowiązków regulacyjnych.

W zależności od kategorii ryzyka, różne podmioty – takie jak dostawcy, wprowadzeniowcy na rynek, dystrybutorzy oraz użytkownicy końcowi – mają przypisane zróżnicowane obowiązki oraz ponoszą odmienny zakres odpowiedzialności. Poniższa tabela prezentuje ogólny podział ról według AI Act:

Rola Przykład podmiotu Zakres odpowiedzialności (ogólnie)
Dostawca Twórca modelu językowego Ocena zgodności, dokumentacja techniczna, system zarządzania jakością
Wprowadzeniowiec Integrator AI w systemie CRM Zapewnienie zgodności z wymaganiami AI Act po modyfikacjach
Dystrybutor Marketplace AI Weryfikacja znaków zgodności, niezmienianie przeznaczenia systemu
Użytkownik końcowy Przedsiębiorstwo używające AI do analizy danych Uczciwe stosowanie AI, monitorowanie wyników

AI Act przewiduje również mechanizmy nadzoru i sankcje za naruszenia przepisów, które mogą sięgać nawet 30 mln euro lub 6% globalnego obrotu przedsiębiorstwa – w zależności od charakteru i wagi naruszenia.

Dzięki takiej strukturze, AI Act stara się zapewnić równowagę między innowacyjnością a odpowiedzialnością, dając jasne ramy prawne dla wszystkich uczestników ekosystemu AI. Jeśli chcesz zgłębić temat odpowiedzialności prawnej w obszarze nowych technologii, warto zapoznać się z ofertą Kursu Prawne aspekty IT i ochrony własności intelektualnej.

Podział ról według AI Act: kto za co odpowiada?

Unijny AI Act wprowadza szczegółową strukturę odpowiedzialności dla różnych podmiotów uczestniczących w cyklu życia systemów sztucznej inteligencji. Ustawodawstwo to rozróżnia m.in. dostawców, użytkowników, importerów i dystrybutorów, przypisując im konkretne obowiązki związane z bezpieczeństwem, jakością oraz przejrzystością systemów AI.

Dla ułatwienia, poniższa tabela przedstawia podstawowy podział ról i odpowiedzialności zgodnie z AI Act:

Rola Zakres odpowiedzialności Przykładowe obowiązki
Dostawca Projektowanie, rozwój i wprowadzenie na rynek systemu AI
  • Zgodność z wymogami bezpieczeństwa
  • Ocena zgodności przed wdrożeniem
  • Tworzenie dokumentacji technicznej
Użytkownik (operator) Wdrażanie i użytkowanie systemu zgodnie z przeznaczeniem
  • Monitorowanie działania systemu
  • Zgłaszanie incydentów wysokiego ryzyka
  • Szkolenie personelu użytkowego
Importer Wprowadzanie produktu spoza UE na rynek
  • Weryfikacja zgodności z AI Act
  • Zapewnienie dostępności dokumentacji
Dystrybutor Dalsza odsprzedaż lub udostępnianie systemów AI
  • Przekazywanie informacji o ryzykach
  • Zapewnienie, że produkt nie został zmodyfikowany

W praktyce, te role mogą się przenikać – na przykład firma dostarczająca system AI może być jednocześnie jego użytkownikiem. W takich przypadkach AI Act nakłada kumulatywne obowiązki zgodnie z pełnionymi funkcjami.

Dla zilustrowania, poniższy przykład kodu prezentuje uproszczony opis metadanych systemu AI, gdzie uwzględnione są role zgodnie z wymaganiami dokumentacji technicznej:

{
  "systemName": "SmartPredict 2.0",
  "provider": "AIgenix Sp. z o.o.",
  "importer": "EuroTech GmbH",
  "intendedUse": "Wspomaganie diagnozy medycznej",
  "riskLevel": "wysoki",
  "userResponsibilities": ["monitorowanie wyników", "zgłaszanie błędów"]
}

Podsumowując, AI Act jasno określa, kto i w jakim zakresie ponosi odpowiedzialność za funkcjonowanie systemów sztucznej inteligencji w zależności od pełnionej roli, co ma kluczowe znaczenie dla zapewnienia zgodności z regulacjami i ochrony użytkowników końcowych.

Konsekwencje prawne i etyczne niewłaściwego wykorzystania AI

Rozwój sztucznej inteligencji, mimo swoich licznych zalet, niesie ze sobą również poważne ryzyka związane z jej niewłaściwym wykorzystaniem. Odpowiedzialność za skutki takich działań może mieć zarówno wymiar prawny, jak i etyczny, a skutki mogą być odczuwalne przez wszystkich uczestników ekosystemu AI – od projektantów po końcowych użytkowników.

Konsekwencje prawne wynikają najczęściej z naruszeń przepisów dotyczących ochrony danych osobowych, dyskryminacji, bezpieczeństwa systemów czy też szkody wyrządzonej przez działanie AI. Niewłaściwe wdrożenie lub użytkowanie systemu może prowadzić do postępowań cywilnych, administracyjnych, a w skrajnych przypadkach także karnych. Przykładowo, jeśli algorytm podejmujący decyzje o przyznaniu kredytu systematycznie dyskryminuje określoną grupę społeczną, odpowiedzialność może ponosić zarówno dostawca systemu, jak i instytucja korzystająca z AI.

Konsekwencje etyczne są trudniejsze do jednoznacznego określenia, ale nie mniej istotne. Dotyczą one takich aspektów, jak przejrzystość działania algorytmów, odpowiedzialność za automatyczne decyzje czy poszanowanie autonomii człowieka. Wykorzystanie AI w sposób nieetyczny – na przykład do manipulacji opinią publiczną lub inwigilacji – może prowadzić do utraty zaufania społecznego, protestów społecznych, a także poważnych szkód reputacyjnych dla firm i instytucji zaangażowanych w takie działania.

W kontekście AI Act, niewłaściwe wykorzystanie systemów wysokiego ryzyka może skutkować karami finansowymi sięgającymi nawet do 30 milionów euro lub 6% globalnego obrotu przedsiębiorstwa, w zależności od charakteru naruszenia. To pokazuje, że prawo europejskie traktuje zagrożenia wynikające z AI z najwyższą powagą.

Dlatego już na etapie projektowania, dostarczania i wdrażania systemów AI niezbędne jest nie tylko spełnianie wymogów formalnych, ale również uwzględnianie szerszego kontekstu społecznego i etycznego. Tylko wtedy rozwój sztucznej inteligencji rzeczywiście będzie służył dobru wspólnemu, a nie stanie się źródłem dodatkowych zagrożeń.

Podsumowanie i rekomendacje dla interesariuszy AI

W dobie rosnącej roli sztucznej inteligencji w gospodarce i społeczeństwie, kwestia odpowiedzialności za jej tworzenie, wdrażanie i użytkowanie staje się kluczowa. Wprowadzenie przepisów takich jak AI Act ma na celu uporządkowanie tego obszaru i zapewnienie odpowiedniego poziomu bezpieczeństwa, przejrzystości oraz ochrony praw podstawowych.

Dla wszystkich interesariuszy – od twórców i dostawców technologii, przez integratorów i konsultantów, aż po użytkowników końcowych – oznacza to konieczność przemyślenia swoich ról i obowiązków w całym cyklu życia systemu AI. Odpowiedzialność nie spoczywa już wyłącznie na autorach algorytmów, ale rozciąga się na wszystkie podmioty uczestniczące w procesie jego wdrożenia i eksploatacji.

W praktyce oznacza to, że:

  • Dostawcy technologii muszą zadbać o transparentność, dokumentację i zgodność z wymogami prawnymi już na etapie projektowania.
  • Integratorzy i wdrożeniowcy mają obowiązek sprawdzenia, czy systemy działają zgodnie z przeznaczeniem i nie stwarzają zagrożenia dla użytkowników.
  • Użytkownicy końcowi powinni być świadomi ograniczeń i możliwości systemów AI oraz stosować je zgodnie z instrukcjami i zaleceniami.

Aby skutecznie zarządzać ryzykiem, każda ze stron powinna wdrożyć odpowiednie środki techniczne, organizacyjne i prawne. Rekomenduje się również prowadzenie ciągłego monitoringu działania systemów AI oraz regularne aktualizowanie polityk zgodności. Przejrzystość, edukacja i odpowiedni podział ról to fundamenty odpowiedzialnego korzystania z potencjału sztucznej inteligencji.

icon

Formularz kontaktowyContact form

Imię *Name
NazwiskoSurname
Adres e-mail *E-mail address
Telefon *Phone number
UwagiComments