Pomimo że od 21 kwietnia 2021 r. znamy już projekt rozporządzenia Komisji Europejskiej w sprawie sztucznej inteligencji, nadal niewyjaśnioną kwestią jest to, kto i na jakiej podstawie miałby ponosić odpowiedzialność za szkody wyrządzone działaniem lub zaniechaniem systemów opartych na AI. Człowiek czy raczej uczący się i autonomicznie podejmujący decyzję system?
Nadal trwają próby znalezienia wspólnego mianownika, a Komisja Europejska gromadzi opinie w ramach konsultacji publicznych, skierowanych przede wszystkim do przedstawicieli środowiska IT, stowarzyszeń konsumentów, ubezpieczycieli i środowiska akademickiego. I słusznie, gdyż złożoność i innowacyjność sztucznej inteligencji wymaga rozwagi w podejmowaniu działań legislacyjnych. Jednak może się okazać, że długotrwałość tych procesów – przy dynamicznym rozwoju technologii – działać będzie na niekorzyść ostatniego ogniwa w łańcuchu – konsumentów.
Parlamentu Europejskiego
20 października 2020 r. Parlament Europejski przyjął rezolucję z zaleceniami dla Komisji Europejskiej w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję. Za punkt wyjścia dla rozważań Parlamentu należy uznać konstatację, że wszelkie szkody wyrządzone przez AI są niemal zawsze wynikiem tego, że to człowiek skonstruował lub wdrożył system albo ingerował w niego, a zatem nie ma potrzeby nadawania systemom AI osobowości prawnej.
Główne założenia Parlamentu to:
¶ Wprowadzenie dualizmu odpowiedzialności – odpowiedzialność systemów wysokiego ryzyka, enumeratywnie wskazanych w załączniku do rozporządzenia, miałaby mieć charakter surowszy, oparty na zasadzie ryzyka, pozostałych zaś systemów – „łagodniejszą", opartą na zasadzie winy, przy jednoczesnej zmianie rozłożenia ciężaru dowodu;