AI nie skrzywdzi Europejczyków, zrobią to nadgorliwi regulatorzy

Nadmierna regulacja sztucznej inteligencji służy tylko jednej grupie interesariuszy: wielkim firmom big tech. Najważniejszym zadaniem dla regulatorów powinno być znalezienie równowagi.

Publikacja: 28.11.2023 21:00

AI nie skrzywdzi Europejczyków, zrobią to nadgorliwi regulatorzy

Foto: Adobe Stock

W ostatnich tygodniach uwagę mediów przyciągnęła konferencja AI Safety Summit zorganizowana przez brytyjskiego premiera Rishiego Sunaka, któremu udało się zgromadzić gości takich jak Kamala Harris, Ursula von der Leyen, Elon Musk czy Sam Altman. Kluczowym wydarzeniem konferencji było podpisanie przez 28 krajów Deklaracji z Bletchley, nazwanej tak od słynnego Bletchley Park – centrum łamania szyfrów podczas drugiej wojny światowej, które teraz gościło konferencję. Deklaracja, będąca niewątpliwym sukcesem dyplomatycznym, ma jednak wartość głównie symboliczną, a zawarte w niej stwierdzenia, że „AI powinno być rozwijane (...) w sposób bezpieczny” nie wiążą się z konkretnymi obietnicami działań sygnatariuszy.

Tematem dużo ważniejszym, acz mniej nośnym medialnie, są prace nad tzw. AI Act przedstawionym przez Komisję Europejską (KE). Projekt legislacyjny tego aktu został zaprezentowany przez KE w kwietniu 2021 r. i stanowił najpierw przedmiot uzgodnień pomiędzy państwami członkowskimi UE w łonie Rady UE, obecnie zaś trwają negocjacje trójstronne z udziałem Rady, Parlamentu Europejskiego (PE) i KE. W swojej oryginalnej wersji AI Act klasyfikował rozwiązania AI według stwarzanego przez nie ryzyka i w zależności od jego stopnia zakazywał tworzenia owych systemów (np. do prowadzenia punktowej oceny obywateli) lub nakładał na nie ograniczenia (np. na systemy identyfikacji biometrycznej).

Mimo że na pierwszy rzut oka unijne zapędy regulacyjne służą szczytnym celom, istotne jest wzięcie pod uwagę negatywnych konsekwencji owej regulacji dla innowacyjności oraz dla konkurencyjności Europy na tle USA i Chin.

Proponowane regulacje najmocniej uderzają w start-upy oraz projekty open-source, które nie mają zasobów, by dostosować się do skomplikowanych wymogów prawnych. Według ankiety przeprowadzonej przez niemieckie centrum innowacji UnternehmerTUM na próbie ponad 100 start-upów zajmujacych się AI, ponad jedna trzecia obecnie rozwijanych zastosowań sztucznej inteligencji zostałaby zakwalifikowana do klasy wysokiego ryzyka. Tak wysoki odsetek stoi w wyraźnej sprzeczności z zamierzeniami autorów aktu, którzy szacowali, że do kategorii wysokiego ryzyka zaliczać będzie się między 5 a 15 proc. rozwiązań. Pochopna regulacja może pociągnąć za sobą opłakane skutki dla innowacji: blisko 80 proc. ankietowanych funduszy venture capital przewiduje spadek konkurencyjności europejskich start-upów AI.

Kolejnym zarzutem podnoszonym wobec AI Act jest jego prewencyjny charakter. Jak podkreśla założyciel Geopolitical Intelligence Services, książę Michał von Liechtenstein, obecny kształt regulacji próbuje przewidzieć ryzyko na podstawie przeszłych doświadczeń. Według niego takie podejście tworzy iluzję ograniczania ryzyka, jednocześnie pozostawiając mało pola do adaptacji do zagrożeń, które pojawią się w przyszłości. Istotnie, mankamenty obecnego kształtu projektu regulacji są widoczne jeszcze przed jej wprowadzeniem. W strukturach europejskich panuje impas spowodowany bezprecedensowym wzrostem popularności dużych modeli językowych, do których zalicza się ChatGPT. Twórcy AI Act, którego pierwsza wersja powstała w 2021 r., nie mogli przewidzieć globalnego boomu na generatywną sztuczną inteligencję, który zapoczątkowała premiera produktu Open AI w listopadzie 2022 r. Serwis Euractiv specjalizujący się w polityce Unii Europejskiej donosi, że przyjęcie aktu prawnego jest zagrożone ze względu na trudności w wypracowaniu konsensusu między sceptyczną wobec regulacji Radą UE a PE, który naciska na dodanie zapisów dotyczących tzw. foundation models, do których zalicza się ChatGPT. Nawet jeśli akt zostanie wprowadzony, nie można wykluczyć powstania kolejnej rewolucyjnej technologii, która nie została uwzględniona w obowiązującej wersji dokumentu. W sektorze o tak dużej dynamice rozwoju jak AI wprowadzenie regulacji będzie hamować innowacje i stwarzać kolejne wyzwania regulacyjne, zamiast faktycznie chronić obywateli przed zagrożeniami płynącymi z nowych technologii.

Krytyczne stanowisko wobec prewencyjnego podejścia do regulacji w obszarze AI zajął jeden z twórców uczenia głębokiego, a obecnie szef działu AI w Meta, Yann LeCun, mówiąc, że „nie można opracować pasów bezpieczeństwa, nie mając samochodu”. Słowa te padły w kontekście zaproponowanego w marcu bieżącego roku półrocznego moratorium na rozwój wielkich systemów AI. Głośny list otwarty został podpisany przez dziesiątki ekspertów w dziedzinie AI. Warto jednak zauważyć, że ogromna większość popierających utrudnienie badań nad AI to ludzie związani z firmami Microsoft oraz Google – głównymi wygranymi tej rewolucji. Andrew Ng, profesor Stanfordu i założyciel Google Brain, z dużym przekonaniem oskarża firmy big tech o manipulowanie emocjami opinii publicznej poprzez malowanie apokaliptycznych scenariuszy – jak na przykład Elon Musk, który nazwał AI „egzystencjalnym ryzykiem dla ludzkości”. Ng uważa, że najwięksi globalni gracze lobbują za regulacją AI w celu zniszczenia konkurencji mniejszych firm, nieposiadających potężnych zasobów, w tym rozbudowanych działów prawnych. W rozmowie z „Australian Financial Review” Amerykanin stwierdza, że „kolosalnie głupie propozycje licencjonowania AI zmiażdżą innowacyjność.

Podpisana w Wielkiej Brytanii deklaracja spotkała się z globalną aprobatą – i słusznie. Mimo dużego stopnia ogólności, tworzy ona podwaliny pod odpowiedzialną regulację AI, która co do swej istoty jest potrzebna. Niemniej jednak ścieżka nadmiernego protekcjonizmu, na którą wkroczyła Unia, może doprowadzić do masowego odpływu kapitału i talentów ze Starego Kontynentu – szkód znacznie większych, niż jest w stanie wyrządzić jakikolwiek system AI.

Felietony
Wielka batalia małych spółek
Felietony
Przyszłość rynków kapitałowych w świetle planów Eurogrupy a perspektywa Polski
Felietony
Strategiczny błąd Fedu?
Felietony
O nożach, fundacjach rodzinnych i...
Felietony
Większy kawałek świata
Felietony
Kara goni karę