Kto odpowiada za szkody wyrządzone przez sztuczną inteligencję?

Kto odpowiada za szkody wyrządzone przez AI? Pixabay

Pod koniec zeszłego roku 56% firm korzystało ze sztucznej inteligencji (AI)  wynika z badania przeprowadzonego przez McKinsey. To o 6 p. p. więcej niż rok wcześniej. Najczęściej AI angażowana jest do optymalizacji działań serwisowych (27%), udoskonalenia produktów (22%), automatyzacji contact center (22%), optymalizacji produktów (20%) oraz zapobiegania awariom i ułatwiania interwencji (18%). Na dalszych miejscach wskazano także działania z obszaru wsparcia sprzedaży i marketingu oraz zarządzania ryzykiem. Jak widać, sztuczna inteligencja wspomaga firmy w różnych czynnościach, choć na czoło wysuwają się procesy związane z bezpieczeństwem fizycznym, zabezpieczeniem mienia.

– Dlatego ubezpieczyciele, którzy sami także korzystają z AI w swoich działaniach, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody, czy też temperaturę w budynkach to także elementy naszej codzienności. Ponadto, sami ubezpieczyciele coraz częściej oferują klientom wsparcie w postaci systemów monitorujących i predykcyjnych, pozwalających zminimalizować ryzyko awarii – zauważa Mateusz Bartoszcze, radca prawny, zastępca dyrektora Oddziału Kraków EIB SA.

Sztuczna inteligencja a odpowiedzialność

Mimo że funkcjonują już na rynku umowy ubezpieczenia uwzględniające udział AI w minimalizacji ryzyka, to istnieje jeszcze sporo wątpliwości co do odpowiedzialności za ewentualne szkody: za działanie bądź niezadziałanie konkretnych urządzeń. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Obowiązuje co prawda reżim odpowiedzialności producenta za produkt, ale co w sytuacji, w której samo urządzenie działa poprawnie. A może brak informacji zwrotnej wynikał z błędów strony trzeciej, np. ubezpieczyciela, który je udostępnił ubezpieczonemu? Co więcej, samo urządzenie bazujące na AI może być elementem wprowadzającym dodatkowe ryzyko cybernetyczne, więc awaria i szkody materialne mogą być też wynikiem ataku hakerskiego. To tylko część pytań, które na razie pozostają bez jasnej odpowiedzi, więc każdy przypadek rozpatrywany jest indywidualnie.

– Oprócz kwestii technicznych, musimy też zmierzyć się z problemami etycznymi. Najlepszym przykładem są pojazdy autonomiczne. Jak ma być oceniane ryzyko i co powinien zrobić pojazd w razie zagrożenia? Czy powinien chronić przede wszystkim pasażerów i „samego siebie”? Czy AI powinna również ocenić potencjalne szkody w otoczeniu? Przykładowo, co jeśli pojedynczy pieszy wyjdzie na jezdnię tuż przed pojazdem, którym podróżuje kilka osób? W przypadku zdarzeń przemysłowych z kolei, czy ważniejsze jest bezpieczeństwo i zdrowie pracowników, czy minimalizacja rozmiaru szkód w linii produkcyjnej? To trudne kwestie i nie zazdroszczę dylematów, przed którymi staną prawodawcy i twórcy oprogramowania – dodaje Mateusz Bartoszcze z EIB SA.

Obowiązkowe OC dla AI?

Nowe rodzaje ubezpieczeń wydają się więc koniecznością. Już jakiś czas temu UE postanowiła skodyfikować problem za pomocą Artificial Inteligence Act, który dokonuje m.in. podziału systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono więc systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne czy systemy wyborcze. Co więcej, w 2020 r. przyjęto rezolucję Parlamentu Europejskiego dotyczącego reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05). W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów w zakresie, w jakim odpowiedzialność nie mieściłaby się lub wykraczała poza regulacje dotyczące odpowiedzialności za produkt. Ustalono też, na wzór regulacji dotyczących OC samochodowego, sugerowane sumy gwarancyjne tych ubezpieczeń. Są to kwoty w wysokości 2 mln euro na zdarzenie w przypadku szkód na osobie oraz miliona euro w przypadku szkód rzeczowych.

– Wydaje się, że zaproponowane rozwiązanie jest dobre, jednak nadal nie mamy konkretnych propozycji. Jedną z barier jest przyjęcie jednolitych definicji. Sądzę jednak, że już w niedalekiej przyszłości pojawią się już pierwsze „standardowe” polisy. Na razie ubezpieczenia uwzględniające lub chroniące AI to produkty szyte na miarę. Patrząc jednak na rozwój technologii i jej roli w naszym życiu, to musi się szybko zmienić – mówi Mateusz Bartoszcze z EIB SA.

Źródło: EIB / Brandscope

O Autorze

Czasopismo elektrotechnik AUTOMATYK jest pismem skierowanym do osób zainteresowanych tematyką z zakresu elektrotechniki oraz automatyki przemysłowej. Redakcja online czasopisma porusza na stronie internetowej tematy związane z tymi obszarami – publikuje artykuły techniczne, nowości produktowe, a także inne ciekawe informacje mniej lub bardziej nawiązujące do wspomnianych obszarów.

Tagi artykułu

Zobacz również

Chcesz otrzymać nasze czasopismo?

Zamów prenumeratę