Odpowiedzialność cywilnoprawna za działania sztucznej inteligencji

Prace nad uregulowaniem odpowiedzialności cywilnoprawnej za sztuczną inteligencję na forum europej-skim nadal trwają, a kierunek, jaki obierze Komisja Europejska, nie jest jeszcze przesądzony

Publikacja: 16.11.2021 05:00

Marta Pasztaleniec radca prawny, RKKW – Kwaśnicki, Wróbel & Partnerzy

Marta Pasztaleniec radca prawny, RKKW – Kwaśnicki, Wróbel & Partnerzy

Foto: materiały prasowe

Pomimo że od 21 kwietnia 2021 r. znamy już projekt rozporządzenia Komisji Europejskiej w sprawie sztucznej inteligencji, nadal niewyjaśnioną kwestią jest to, kto i na jakiej podstawie miałby ponosić odpowiedzialność za szkody wyrządzone działaniem lub zaniechaniem systemów opartych na AI. Człowiek czy raczej uczący się i autonomicznie podejmujący decyzję system?

Nadal trwają próby znalezienia wspólnego mianownika, a Komisja Europejska gromadzi opinie w ramach konsultacji publicznych, skierowanych przede wszystkim do przedstawicieli środowiska IT, stowarzyszeń konsumentów, ubezpieczycieli i środowiska akademickiego. I słusznie, gdyż złożoność i innowacyjność sztucznej inteligencji wymaga rozwagi w podejmowaniu działań legislacyjnych. Jednak może się okazać, że długotrwałość tych procesów – przy dynamicznym rozwoju technologii – działać będzie na niekorzyść ostatniego ogniwa w łańcuchu – konsumentów.

Parlamentu Europejskiego

20 października 2020 r. Parlament Europejski przyjął rezolucję z zaleceniami dla Komisji Europejskiej w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję. Za punkt wyjścia dla rozważań Parlamentu należy uznać konstatację, że wszelkie szkody wyrządzone przez AI są niemal zawsze wynikiem tego, że to człowiek skonstruował lub wdrożył system albo ingerował w niego, a zatem nie ma potrzeby nadawania systemom AI osobowości prawnej.

Główne założenia Parlamentu to:

¶ Wprowadzenie dualizmu odpowiedzialności – odpowiedzialność systemów wysokiego ryzyka, enumeratywnie wskazanych w załączniku do rozporządzenia, miałaby mieć charakter surowszy, oparty na zasadzie ryzyka, pozostałych zaś systemów – „łagodniejszą", opartą na zasadzie winy, przy jednoczesnej zmianie rozłożenia ciężaru dowodu;

¶ Odpowiedzialność na zasadzie ryzyka winna być ukształtowana analogicznie jak „sprawdzona w praktyce" odpowiedzialność za produkt niebezpieczny, wezwano jednak Komisję do oceny, czy nie wymaga ona dostosowania do rzeczywistości cyfrowej, w szczególności poprzez zmianę takich pojęć, jak „producent", „wina" czy „produkt";

¶ W przypadku szkody wyrządzonej na skutek działania strony trzeciej, jak np. hakera, zastosowanie powinno mieć krajowe prawo deliktów;

¶ Ponieważ zbyt trudnym, a nawet niemożliwym będzie powiązanie szkodliwego działania systemu z decyzjami człowieka na etapie projektowania systemu, w takim przypadku odpowiedzialność powinien ponosić operator systemu, gdyż to on kontroluje ryzyko związane z jego działaniem; w przypadku większej liczby operatorów powinni oni ponosić odpowiedzialność solidarną, zaś proporcje każdego z nich powinny być ustalane na podstawie stopnia kontroli operatorów nad ryzykiem.

Parlament zaproponował także konkretne rekomendacje dotyczące okresów przedawnienia i maksymalnych kwot odszkodowania za szkody wyrządzone przez systemy wysokiego ryzyka.

Komisji Europejskiej

Komisja w połowie 2021 r. przeprowadziła konsultacje w zakresie przeglądu dyrektywy w sprawie odpowiedzialności za produkt niebezpieczny oraz oceny, czy krajowe przepisy zapewniają pewność prawa i ochronę konsumentów w dobie produktów i usług opartych na sztucznej inteligencji. Głos zabrały m.in. takie firmy, jak Google, Huawei czy Microsoft, które naturalnie optowały za pozostawieniem technologicznie neutralnego podejścia, jaki wynika z reżimu odpowiedzialności za produkt niebezpieczny, bez konieczności jej zaostrzania.

Prace nad uregulowaniem odpowiedzialności cywilnoprawnej za sztuczną inteligencję na forum europejskim nadal trwają, a kierunek, jaki obierze Komisja Europejska, nie jest jeszcze przesądzony. Co istotne jednak, każdy – chociażby potencjalnie – może mieć na niego wpływ, zabierając głos w ramach trwających do 10 stycznia 2022 r. konsultacji publicznych poprzez wypełnienie odpowiedniego kwestionariusza.

Felietony
Wspólny manifest rynkowy
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Felietony
Pora obudzić potencjał
Felietony
Kurs EUR/PLN na dłużej powinien pozostać w przedziale 4,25–4,40
Felietony
A jednak może się kręcić. I to jak!
Materiał Promocyjny
Cyfrowe narzędzia to podstawa działań przedsiębiorstwa, które chce być konkurencyjne
Felietony
Co i kiedy zmienia się w rozporządzeniu MAR?
Felietony
Dolar na fali, złoty w defensywie