Sztuczna inteligencja w Europie. Nowe przepisy i działania

Sztuczna inteligencja w Europie. Nowe przepisy i działania Pixabay

Komisja Europejska przedstawiła propozycje nowych przepisów i działań, aby przekształcić Europę w globalne centrum wiarygodnej sztucznej inteligencji (AI). Połączenie pierwszych w historii ram prawnych dotyczących sztucznej inteligencji i nowego skoordynowanego planu opracowanego wraz z państwami członkowskimi ma zagwarantować bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw, co z kolei ma znaleźć przełożenie na upowszechnianie i systematyczne zwiększanie inwestycji w AI.

Dzięki nowemu rozporządzeniu w sprawie sztucznej inteligencji Europejczycy będą mogli zaufać ofercie AI. Proporcjonalne i elastyczne przepisy pozwolą zaradzić szczególnym zagrożeniom stwarzanym przez systemy sztucznej inteligencji i ustanowią najwyższe na świecie standardy. W skoordynowanym planie przedstawiono zmiany w polityce i inwestycje na szczeblu państw członkowskich, które są konieczne, aby wzmocnić wiodącą pozycję Europy w rozwoju ukierunkowanej na człowieka, zrównoważonej, bezpiecznej, sprzyjającej włączeniu społecznemu i wiarygodnej sztucznej inteligencji.

Skuteczne wdrażanie sztucznej inteligencji wymaga ram prawnych

Nowe przepisy będą stosowane bezpośrednio w ten sam sposób we wszystkich państwach członkowskich w oparciu o dostosowaną do przyszłych wyzwań definicję sztucznej inteligencji, a przyjęto w nich podejście oparte na analizie ryzyka, gdzie stwierdzono, że systemy sztucznej inteligencji, które uznaje się za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw obywateli, zostaną zakazane. Są to np. systemy lub aplikacje wykorzystujące sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników (np. zabawki z wbudowanym asystentem głosowym zachęcające małoletnich do niebezpiecznych zachowań) oraz systemy oceny punktowej obywateli przez rządy.

Systemy AI uznane za systemy wysokiego ryzyka obejmują m.in.: technologię AI stosowaną także w: infrastrukturze krytycznej (np. w transporcie), co mogłoby zagrozić żdrowiu, a nawet życiu obywateli, kształceniu lub szkoleniu zawodowym, co może decydować o dostępie do kształcenia i szkolenia zawodowego danej osoby (np. ocena egzaminów); elementy bezpieczeństwa produktów (np. zastosowanie AI w chirurgii wspomaganej robotem); zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacji); podstawowe usługi prywatne i publiczne (np. ocena zdolności kredytowej, która może uniemożliwić obywatelom dokonanie pewnych inwestycji) czy egzekwowanie prawa, co może kolidować chociażby z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów).

Sztuczna inteligencja wysokiego ryzyka będzie musiała spełnić rygorystyczne wymogi przed wprowadzeniem do obrotu. Będą to: odpowiednie systemy oceny i ograniczania ryzyka; wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminujących skutków; ewidencjonowanie działania w celu zapewnienia identyfikowalności wyników; szczegółowa dokumentacja zawierająca wszystkie informacje na temat systemu i jego celu, aby organy mogły ocenić jego zgodność z wymogami; jasne i odpowiednie informacje dla użytkownika oraz odpowiednie środki nadzoru przez człowieka w celu zminimalizowania ryzyka czy wysoki poziom solidności, bezpieczeństwa i dokładności.

Systemy AI ryzyka wysokiego i ograniczonego

W szczególności za systemy wysokiego ryzyka uznaje się wszystkie rodzaje zdalnej identyfikacji biometrycznej. Korzystanie z nich w czasie rzeczywistym na potrzeby ochrony porządku publicznego w miejscach dostępnych publicznie jest co do zasady zabronione. Wyjątki od tej zasady są ściśle określone i uregulowane (dotyczy to np. sytuacji, gdy korzystanie z takich technologii jest absolutnie niezbędne do poszukiwania zaginionego dziecka, zapobieżenia konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub do wykrycia, zlokalizowania, zidentyfikowania lub ścigania sprawcy lub podejrzanego o popełnienie poważnego przestępstwa). Tego rodzaju zastosowanie wymaga uzyskania zezwolenia sądu lub innego niezależnego organu oraz musi być odpowiednio ograniczone w odniesieniu do czasu, zasięgu geograficznego i przeszukiwanych baz danych.

Do ograniczonego ryzyka zaliczają się z kolei systemy sztucznej inteligencji podlegające szczególnym obowiązkom w zakresie przejrzystości - użytkownicy chatbotów powinni mieć świadomość, że wchodzą w interakcję z maszyną - tak, aby mogli podjąć świadomą decyzję o kontynuowaniu lub przerwaniu interakcji. Minimalne ryzyko zaś występuje wtedy, gdy wniosek ustawodawczy umożliwia swobodne korzystanie z zastosowań takich jak gry wideo z wykorzystaniem sztucznej inteligencji lub filtry spamu. Do tej kategorii należy zdecydowana większość systemów sztucznej inteligencji. Projekt rozporządzenia nie przewiduje interwencji w odniesieniu do tej kategorii zastosowań, ponieważ tego rodzaju systemy AI nie stanowią zagrożenia dla praw lub bezpieczeństwa obywateli lub zagrożenie to jest minimalne.

Kto będzie sprawował nadzór na bezpieczeństwem wdrażania nowych rozwiązań?

Jeżeli chodzi o zarządzanie, Komisja proponuje, aby nadzór nad nowymi przepisami sprawowały właściwe krajowe organy nadzoru rynku. Wdrożenie przepisów ułatwi Europejska Rada ds. Sztucznej Inteligencji, której utworzenie przyczyni się także do opracowania norm w dziedzinie AI. Ponadto proponuje się dobrowolne kodeksy postępowania dotyczące zastosowań sztucznej inteligencji nieobarczonych wysokim ryzykiem oraz piaskownice regulacyjne w celu ułatwienia odpowiedzialnego podejścia do innowacji.

Koordynacja wzmocni wiodącą pozycję Europy w dziedzinie ukierunkowanej na człowieka, zrównoważonej, bezpiecznej, sprzyjającej włączeniu społecznemu i wiarygodnej sztucznej inteligencji. Aby utrzymać konkurencyjność UE w skali globalnej, Komisja jest zaangażowana we wspieranie innowacji w zakresie rozwoju i stosowania technologii AI we wszystkich sektorach przemysłu i we wszystkich państwach członkowskich.

Źródło: Komisja Europejska

O Autorze

Czasopismo elektrotechnik AUTOMATYK jest pismem skierowanym do osób zainteresowanych tematyką z zakresu elektrotechniki oraz automatyki przemysłowej. Redakcja online czasopisma porusza na stronie internetowej tematy związane z tymi obszarami – publikuje artykuły techniczne, nowości produktowe, a także inne ciekawe informacje mniej lub bardziej nawiązujące do wspomnianych obszarów.

Tagi artykułu

elektrotechnik AUTOMATYK 10-11-12/2024

Chcesz otrzymać nasze czasopismo?

Zamów prenumeratę