Odpowiedzialność za sztuczną inteligencję

Odpowiedzialność za sztuczną inteligencję Adobe Stock

Obowiązujące obecnie w Unii Europejskiej przepisy dotyczące odpowiedzialności za produkt mają już prawie 40 lat. Trwający boom technologiczny i coraz częstsze wkraczanie innowacji do życia codziennego, w tym przede wszystkim sztucznej inteligencji wykorzystywanej w produktach powszechnego użytku i usługach, wymusza dostosowanie regulacji prawnych do nowych realiów. Właśnie dlatego ustawodawca unijny wyjął przed nawias kwestie związane z odpowiedzialnością za produkty i sztuczną inteligencję.

Niezależnie od ogłoszonego w kwietniu zeszłego roku aktu w sprawie sztucznej inteligencji (Rozporządzenie AI), pod koniec września Komisja opublikowała projekt nowej dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję (Dyrektywa o Odpowiedzialności za AI).

Pakiet o sztucznej inteligencji

Przedstawiona Dyrektywa o Odpowiedzialności za AI stanowi uzupełnienie Rozporządzenia AI. Podstawowym celem projektowanych regulacji jest ochrona konsumentów i przedsiębiorstw oraz dostosowanie przepisów do dynamicznie rozwijającego się rynku innowacji i ery cyfrowej. Dzięki nowym regulacjom powinno być jasne kto, kiedy i na jakich zasadach ponosi odpowiedzialność za produkty wadliwe – od inteligentnych technologii, takich jak IoT, po produkty farmaceutyczne – wskazuje Zuzanna Nowak-Wróbel, associate w warszawskim zespole IP & TMT kancelarii Wolf Theiss.

Opublikowany projekt Dyrektywy o Odpowiedzialności za AI z jednej strony zmienia obowiązującą dyrektywę w sprawie odpowiedzialności za produkty, jednocześnie dostosowując ją do transformacji technologicznej, a z drugiej proponuje nowe przepisy dedykowane sztucznej inteligencji. Dyrektywa wskazuje wprost, że nie ma zastosowania do odpowiedzialności karnej – projektowane regulacje dotyczą wyłącznie kwestii odpowiedzialności pozaumownej opartej na zasadzie winy, czyli za szkody wyrządzone umyślnie lub w wyniku niedbałego działania, czy zaniechania. Obejmuje to m.in. naruszenie prywatności czy szkody spowodowane błędami algorytmów AI oraz wadliwymi produktami wykorzystującymi AI. 

Dzięki zmienionym przepisom przedsiębiorstwa zyskają pewność prawa, co pozwoli im inwestować w nowe i innowacyjne produkty, a konsumenci będą mogli uzyskać godziwe odszkodowanie, gdy wadliwe produkty spowodują szkodę. Generalnie, osoby poszkodowane będą mogły korzystać z takich samych standardów ochrony w przypadku szkody spowodowanej przez produkty lub usługi związane ze sztuczną inteligencją, jakie obowiązywałyby w przypadku wystąpienia szkody w jakichkolwiek innych okolicznościach – wyjaśnia Jakub Pietrasik, counsel kierujący praktyką IP & TMT w warszawskim biurze kancelarii Wolf Theiss.

Domniemanie związku przyczynowo-skutkowego

Proponowana Dyrektywa o Odpowiedzialności za AI wprowadza tzw. domniemanie istnienia związku przyczynowego – oznacza to, że w okolicznościach, w których stwierdzono zdarzenie wywołujące szkodę, szkodę jako taką i winę, a związek przyczynowy z funkcjonowaniem sztucznej inteligencji wydaje się być prawdopodobny, przyjmuje się istnienie związku przyczynowego wystarczającego do dochodzenia odszkodowania za działania lub braki działania systemu sztucznej inteligencji. Niemniej jednak domniemanie takie należy zastosować tylko wtedy, gdy spełnione są określone warunki.

Przyjęcie domniemania istnienia związku przyczynowego pozwoli uniknąć konieczności żmudnego udowadniania i wyjaśniania, w jaki sposób szkoda została spowodowana, co niejednokrotnie wymaga znacznej wiedzy technicznej i zrozumienia złożonych systemów sztucznej inteligencji  – dodaje Zuzanna Nowak-Wróbel.

Ułatwienia dowodowe

Projekt dyrektywy odrębnie traktuje systemy AI wysokiego ryzyka. Zgodnie z aktualną wersją Rozporządzenia AI, systemami AI wysokiego ryzyka są m.in. wszelkie systemy, które wymagają oceny zgodności z udziałem jednostki notyfikowanej, jak również na przykład systemy do identyfikacji i kategoryzacji biometrycznej, pojazdy autonomiczne, systemy scoringowe czy systemy zarządzające infrastrukturą krytyczną (dostawy wody, paliw czy ogrzewania i elektryczności).

Dyrektywa wprowadza dodatkowe narzędzie, którym mogą posłużyć się ofiary, dochodząc zadośćuczynienia od dostawców takich systemów – planowane jest wprowadzenie prawa dostępu do dowodów od dostawców systemów AI. Z tego względu dostawca lub użytkownik systemów AI może zostać zobowiązany do ujawnienia dokumentacji technicznej systemu, wyników testów walidacyjnych algorytmów AI czy też dokumentacji systemu zarządzania jakością. 

Co ciekawe, w przypadku systemów AI wysokiego ryzyka domniemanie istnienia związku przyczynowego może zaistnieć wyłącznie, gdy powód udowodni, że dostawca naruszył obowiązki nałożone na niego na podstawie Rozporządzenia AI. Naruszenia takie mogą polegać m.in. na stworzeniu systemu z wykorzystaniem danych treningowych, walidacyjnych i testowych, które nie spełniają kryteriów jakościowych lub na zaprojektowaniu systemu z naruszeniem zasad dotyczących przejrzystości działania i interpretowalności wyników działania, czy zasad dotyczących nadzoru człowieka nad działaniem systemu. 

Strategia zarządzania ryzykiem realizowana w trakcie cyklu życia systemu AI wysokiego ryzyka może być elementem przydatnym do celów oceny zgodności systemu z obowiązkowymi wymogami nakładanymi na dostawców takiego systemu. Stąd też wszelkie kroki podejmowane przez dostawców w ramach systemu zarządzania ryzykiem i same wyniki, tj. decyzje o przyjęciu lub nieprzyjęciu określonych środków, powinny być na bieżąco monitorowane i dokumentowane, gdyż ich prawidłowość i kompletność wpływać będzie nie tylko na ich zgodność z przepisami, ale również wprost na odpowiedzialność odszkodowawczą – wyjaśnia Jakub Pietrasik.

Ujednolicenie przepisów o sztucznej inteligencji

Wyraźnie widać, że ustawodawca unijny aktywnie pracuje nad regulacjami AI i dąży do możliwego ich ujednolicenia we wszystkich państwach członkowskich. W efekcie powstał pakiet różnego rodzaju regulacji unijnych odnoszący się do systemów AI. Pakiet ten na chwilę obecną obejmuje trzy uzupełniające się obszary:

  • podstawowe przepisy horyzontalne dotyczące systemów sztucznej inteligencji (Rozporządzenie AI);
  • aktualizacje i dostosowanie sektorowych i horyzontalnych przepisów dotyczących bezpieczeństwa produktów (zmiany przepisów dyrektywy o bezpieczeństwie produktów);
  • nowe przepisy dotyczące kwestii odpowiedzialności związanych z systemami AI (projekt dyrektywy odpowiedzialność AI).

Źródło: Wolf Theiss

O Autorze

Czasopismo elektrotechnik AUTOMATYK jest pismem skierowanym do osób zainteresowanych tematyką z zakresu elektrotechniki oraz automatyki przemysłowej. Redakcja online czasopisma porusza na stronie internetowej tematy związane z tymi obszarami – publikuje artykuły techniczne, nowości produktowe, a także inne ciekawe informacje mniej lub bardziej nawiązujące do wspomnianych obszarów.

Tagi artykułu

elektrotechnik AUTOMATYK 10-11-12/2024

Chcesz otrzymać nasze czasopismo?

Zamów prenumeratę