Wykorzystanie sztucznej inteligencji w dezinformacji politycznej

Technologie informatyczne od dawna są wykorzystywane w procesach wyborczych. Jednak ostatnie postępy w dziedzinie sztucznej inteligencji mogą mieć bezprecedensowy wpływ na proces wyborczy. Chodzi zwłaszcza o potencjał manipulacji i kreowania przez sztaby wyborcze alternatywnej rzeczywistości niemożliwej do zweryfikowania przez przeciętnego wyborcę.

Publikacja: 21.08.2024 06:00

Robert Nogacki, radca prawny, partner zarządzający, Kancelaria Prawna Skarbiec

Robert Nogacki, radca prawny, partner zarządzający, Kancelaria Prawna Skarbiec

Foto: materiały prasowe

AI może być wykorzystywana do opracowania dużych zbiorów danych w celu wpływania na podejmowanie decyzji przez wyborców. Można wyróżnić wiele sposobów, w jakie generatywna sztuczna inteligencja może wzmacniać istniejące zagrożenia dla procesów demokratycznych. Jej zdolność do przeprowadzania cyberataków, tworzenia tzw. deepfake’ów i rozpowszechniania dezinformacji może destabilizować procesy demokratyczne, zagrażać integralności dyskursu politycznego i podważać zaufanie publiczne.

Generowane przez AI treści mogą sprawić, że produkcja na dużą skalę fałszywych, ale przekonujących tekstów, obrazów lub nagrań głosowych staje się mniej kosztowna, a jednocześnie bardziej wiarygodna dla wyborców, trudniejsza do zidentyfikowania i obalenia. Tak zwane deepfake’i i klonowanie głosu były już wykorzystywane do imitowania kandydatów ubiegających się o urząd publiczny. W jednym z incydentów wygenerowany przez sztuczną inteligencję tzw. robocall podszywający się pod prezydenta USA Joe Bidena próbował zniechęcić demokratów do głosowania przed prawyborami w New Hampshire w Stanach Zjednoczonych. W przyszłości takie taktyki mogą służyć nie tylko do przekonującego demobilizowania lub oszukiwania wyborców, ale także do wpływania na opinię publiczną i pogłębiania podziałów politycznych lub prezentowania nieprawdziwych poglądów. Podobna sytuacja miała miejsce na kilka dni przed wyborami na Słowacji, gdzie pojawiły się generowane za pomocą AI nagrania audio deepfake’a, przedstawiające rzekomo rozmowy dziennikarza z czołowym politykiem liberalnym, którzy omawiali fałszowanie wyborów i inne kontrowersyjne tematy. Nagrania zostały rozpowszechnione na platformach społecznościowych i niewykluczone, że wpłynęły na wynik wyborów, w których zwyciężyła prorosyjska partia populistyczna.

Warto również zauważyć, że same oskarżenia o posługiwanie się sztuczną inteligencją stają się swego rodzaju kartą przetargową w rozgrywkach politycznych prowadzonych w ramach kampanii wyborczych. Najlepszym tego przykładem może tu być oskarżenie, wysunięte przez Donalda Trumpa, o wykorzystanie AI w celu poprawy wizerunk, przez jego konkurentkę do fotela prezydenta USA. W dwóch postach, umieszczonych na platformie Truth Social w weekend 10–11 sierpnia br., były prezydent USA i kandydat republikanów na urząd prezydenta USA Donald Trump napisał, że wiceprezydent Kamala Harris „stworzyła za pomocą AI zdjęcia ogromnego tłumu, który pojawił się, aby posłuchać jej przemówienia na wiecu wyborczym na lotnisku w Detroit”. Według Trumpa na zdjęciu widoczne jest również zwierciadlane odbicie uczestników wiecu w kadłubie samolotu, którym przybyła Harris. I chociaż w odbiciu tym wyraźnie widać zgromadzonych ludzi, to brakuje odbicia Kamali Harris i jej świty. Ma to dowodzić wykorzystania AI do stworzenia „sztucznego tłumu”. Sztab Harris odpowiedział własnym postem, w którym stwierdził, że obraz jest „prawdziwym zdjęciem 15-tysięcznego tłumu na rzecz kampanii Harris–Walz w Michigan”. Również główne media amerykańskie uznały oskarżenia Trumpa za „z gruntu fałszywe”, przedstawiając liczne dowody na potwierdzenie tej tezy. Jest to pierwszy przypadek (o którym powszechnie wiadomo), kiedy kandydat na prezydenta USA osobiście wywołuje wśród amerykańskich wyborców wizję fałszerstwa generowanego za pomocą AI przez swego bezpośredniego przeciwnika politycznego (a nie przez konsultantów lub przypadkowych użytkowników mediów społecznościowych). Oskarżenia, choć jak się okazało, fałszywe, żerują na powszechnych obawach i nieporozumieniach dotyczących wiarygodności informacji online w erze AI i mogą być przyjęte przez część elektoratu.

Tagowanie metadanych

Rozwiązanie kwestii wyzwań, jakie stwarzają treści generowane przez AI, wymaga koordynacji działań szerokiego grona podmiotów, od rządów po firmy AI i platformy mediów społecznościowych, a także działań ze strony użytkowników. Interwencje ukierunkowane na rozwój, dystrybucję i wykrywanie treści generowanych przez AI mogą złagodzić niektóre problemy, jakie generatywna AI stwarza dla ogólnej integralności informacji, szczególnie w trakcie kampanii wyborczych. Chociaż mało prawdopodobne jest, aby te środki rozwiązały wszystkie problemy.

Firmy technologiczne, które opracowują narzędzia AI, już pracują nad strategiami, które mogłyby lepiej sygnalizować sytuację, w której tekst, obraz lub głos jest generowany przez AI. Jak na razie wprowadzane rozwiązania technologiczne obejmują przede wszystkim tzw. znakowanie wodne, które dodaje specjalny wzór do generowanej treści, aby zasygnalizować, że została wygenerowana przez AI, oraz podobną do etykiety żywieniowej warstwę informacji o pochodzeniu tej treści, sygnalizującą, kiedy tekst, obraz lub wideo zostały utworzone za pomocą narzędzia AI oraz gdzie i jak zostały edytowane. Oczywiście ten sposób tagowania metadanych może być pomocny, jeśli zostanie jednolicie wdrożony w całej branży technologicznej. Wyzwaniem w tym podejściu jest to, że wytwory AI, które nie zdecydują się na „znakowanie wodne” lub inne wymagania dotyczące pochodzenia treści, mogą być błędnie uznane za wygenerowane przez człowieka. Ponadto przy zrzutach ekranu lub nagraniach telefonicznych obrazów lub filmów ww. informacje mogą być usuwane, a „znaki wodne” mogą zostać łatwo uszkodzone.

Sito deepfake’ów

Strategie, które zajmują się procesem generowania treści przez AI, są ważną drogą interwencji, ale tak samo ważne jest zajęcie się tym, w jaki sposób rozprzestrzeniane są szkodliwe treści. Bez możliwości szerokiego rozprzestrzeniania online wspomniany wyżej słowacki deepfake ledwo by się rozprzestrzenił. Powodem jego szerokiego rezonansu społecznego była w dużej mierze natura wygenerowanej treści – nagranie audio – które ominęło praktyki moderowania treści platform Meta, koncentrujących się wyłącznie na treściach generowanych w formie wideo. Zdaniem ekspertów, aby sprostać wyzwaniom związanym z dystrybucją informacji wygenerowanej przez AI, firmy technologiczne powinny przeanalizować i zamknąć luki w zmanipulowanych politykach medialnych platform mediów społecznościowych, a także podjąć szeroką współpracę, aby lepiej identyfikować szkodliwe generowane treści i udostępniać informacje o nich na swoich platformach.

Obecnie na świecie wprowadzane są bardzo potrzebne regulacje prawne związane z wymogami i obowiązkami, które muszą respektować programiści i podmioty wdrażające rozwiązania AI.

W USA najczęstszym podejściem dot. regulacji wykorzystania AI jest wymóg ujawnienia, gdy sztuczna inteligencja jest używana do generowania treści w kampanii wyborczej. Obecnie 15 amerykańskich stanów zatwierdziło ustawodawstwo wymagające ujawnienia, gdy w kampanii pojawia się treść wyborcza wygenerowana przez sztuczną inteligencję, a w Kongresie czekają na rozpatrzenie trzy projekty ustaw, które wymagałyby podobnego podejścia. Wymagania dotyczące ujawnienia mają zastosowanie zasadniczo tylko wtedy, gdy treści generowane przez sztuczną inteligencję są istotnie mylące i/lub mają na celu wpłynięcie na wynik wyborów. W niektórych przypadkach konieczność ujawniania jest ograniczona do określonego okresu przed wyborami, takiego jak 60 lub 90 dni. Przepisy te zawężają zakres stosowania przepisów, tak aby nieszkodliwe zastosowania sztucznej inteligencji nie podlegały tym samym ograniczeniom. Jeśli chodzi o egzekwowanie prawa w tym zakresie, to poszczególne stany USA nakładają mieszankę kar cywilnych i karnych, przy czym stan Michigan nakłada najsurowszą karę – do pięciu lat więzienia dla recydywisty.

Do pozycji światowego lidera w dziedzinie bezpiecznej AI aspiruje również Unia Europejska. Pierwszego sierpnia 2024 r. wszedł w życie unijny akt w sprawie sztucznej inteligencji (akt w sprawie AI). Akt ma pomóc w odpowiedzialnym rozwoju i wdrażaniu sztucznej inteligencji w UE, a solidne ramy regulacyjne oparte na prawach człowieka i podstawowych wartościach opracowane przez Unię mają przyczynić się do rozwoju ekosystemu AI, który będzie przynosił korzyści wszystkim. Akt w sprawie AI wprowadza we wszystkich krajach UE jednolite ramy prawne. Ich podstawą jest definicja AI, która uwzględnia dalszy rozwój technologii i podejście oparte na analizie ryzyka, a w tym „szczególnego ryzyka w zakresie przejrzystości: systemy takie jak chatboty muszą jasno poinformować użytkowników, że rozmawiają z maszyną, a treści wygenerowane przez AI powinny być odpowiednio oznaczone”.

Technologie
Zwiastun nowego „Wiedźmina” ma już kilka milionów odsłon
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Technologie
Pogrom w grach. 11 bit studios ciągnie branżę w dół
Technologie
11 bit i PCF. Czy w grach dzieje się coś złego?
Technologie
Premier: TVN i Polsat na listę spółek pod ochroną
Materiał Promocyjny
Cyfrowe narzędzia to podstawa działań przedsiębiorstwa, które chce być konkurencyjne
Technologie
Hiobowe wieści z 11 bit studios. Wiemy o którą grę chodzi
Technologie
PCF Group nie pozyskało finansowania. Co zrobi?