Aleksandra Przegalińska, prof. ALK: Ostrożnie z zaufaniem do porad AI

– Do prawidłowości wskazań sztucznej inteligencji trzeba podchodzić ze wstrzemięźliwością – mówi dr hab. Aleksandra Przegalińska, prof. ALK, filozofka, badaczka nowych technologii, w tym sztucznej inteligencji.

Publikacja: 03.06.2024 18:00

Gościem Aleksandry Ptak-Iglewskiej w programie „Prosto z Parkietu” była prof. Aleksandra Przegalińsk

Gościem Aleksandry Ptak-Iglewskiej w programie „Prosto z Parkietu” była prof. Aleksandra Przegalińska, badaczka sztucznej inteligencji. Fot. mat. prasowe

Foto: parkiet.com

Czy warto grać ze sztuczną inteligencją na giełdzie? Jedyny sposób zarabiania na AI na giełdzie to inwestowanie w spółki, które wykorzystują sztuczną inteligencję, jak firmy z branży IT, technologii, a nawet z branży produkcyjnych, które zaczynają wykorzystywać ją w swoim biznesie. Z drugiej strony można jednak wykorzystywać AI do tradingu, do analizy danych, rozpoznawania wzorców, analizy nastrojów. Algorytmy AI mogą być szkolone do rozpoznawania historycznych wzorców cen. Analitycy ostrzegają jednak, że te prognozy obarczone są też ryzykiem błędów. A także, czy sztuczna inteligencja może przewidzieć zjawiska, które do tej pory nie występowały, jak pandemia albo napad Rosji na Ukrainę?

Dzisiaj modne jest inwestowanie w spółki, które w jakiś sposób partycypują w tym wielkim ekosystemie sztucznej inteligencji, bo to nie są tylko te algorytmy, ale np. wielkie sukcesy święci Nvidia, która po prostu tworzy chipy. W zasadzie, ona umożliwia w ogóle istnienie sztucznej inteligencji, choć sama nie tworzy może zaawansowanych algorytmów AI, które się uczą rozpoznawać wzorce, ale jest takim warunkiem sine qua non istnienia AI jako takiego i dzisiaj stąd jej też giełdowe ogromne sukcesy. Więc to jest jakiś kierunek. Mamy troszeczkę taką bańkę AI-ową, w tym sensie, że bardzo dużo się o sztucznej inteligencji mówi, bardzo dużo się zapowiada w związku ze sztuczną inteligencją, ale ja bym powiedziała, że różnica między spekulacją typu NFT a sztuczną inteligencją dzisiaj jest taka, że AI to jest stara technologia, ona już zaliczyła sporo upadków w swojej długiej, prawie stuletniej drodze i też różne bańki wokół niej się pojawiały nawet w latach 70. czy 80. A jednak ta technologia przetrwała, udrożniła się i w tej chwili jest gotowa, mamy mnóstwo algorytmów, które dziś realnie rozwiązują problemy. Są też algorytmy bardzo precyzyjne do wykrywania chorób zakaźnych, sztuczna inteligencja zaflagowała też już w listopadzie 2019, że coś się zaczyna dziać w Wuhanie, zanim WHO zdążyła cokolwiek powiedzieć, był to kanadyjski system, trenowany do wykrywania bardzo wczesnych ognisk chorób zakaźnych.

A czy można mieć pełne zaufanie do jej rekomendacji inwestycyjnych?

Do prawidłowości wskazań sztucznej inteligencji trzeba podchodzić ze wstrzemięźliwością. Dlatego, że po pierwsze, modele sztucznej inteligencji oczywiście mogą się mylić, nawet w sposób trywialny w stosunku do człowieka. Z drugiej strony, inteligencja człowieka nie jest głównie obliczeniowa, mamy różne inne wymiary inteligencji, ale obliczenia i spojrzenie na tabelę excelowską, przejrzenie jej w 15 sekund i znalezienie wszystkich korelacji, ludzki umysł przerasta, a sztuczna inteligencja w tym jest dobra, co nie znaczy, że nie będzie się myliła. Dlatego przestrzegałabym przed takim bezwzględnym zaufaniem do sztucznej inteligencji, zwłaszcza w kontekście najnowszej fali sztucznej inteligencji, czyli modeli generatywnych. ChatGPT jest dobrym przykładem takiego modelu. Takie modele dużo zmyślają przez to, że one są z natury generatywne. Technicznie czasami mówimy, pożyczając to z psychologii, że one halucynują, czyli wytwarzają rzeczy, których nie ma. I one potrafią nam pokazać kompletnie błędne dane, zmyślić te dane i na bazie tych danych zrobić jakąś predykcję. Co może się skończyć dla osoby, która chce grać z nimi na giełdzie, bardzo źle, więc najlepiej jest stosować jej porady z rezerwą, a z drugiej strony warto też trenować modele na bardzo wysokiej jakości danych, czyli nie pytać wprost czata GPT, w co warto na giełdzie zainwestować. Ale jeśli zbudujemy taki system, który będzie miał wiele źródeł danych i będzie rzeczywiście je czytał w czasie rzeczywistym, będzie tzw. agentem, to bezpieczeństwo takiego systemu i chęć do halucynowania będzie mocno ograniczona. Nikt nie da gwarancji, że taki model daje informacje godne w 100 proc. zaufania, bo modelom generatywnym zaufać nie można. Myślę więc, że będziemy wykorzystywać te algorytmy w przewidywaniu różnych zjawisk, także giełdowych, natomiast musimy się nauczyć korzystać z nich w sposób bardzo trzeźwy, wstrzemięźliwy, a nie nadużywać tego, w przeciwnym razie może to doprowadzić do jakichś spekulacji i wręcz wahnięć giełdowych.

Prognozy czy analizy sztucznej inteligencji związane z inwestycjami na giełdzie są między innymi dlatego warte uwagi, że eliminują emocje, a jednak AI może zmyślać, może kłamać, może też się mylić. Kolejnym zagrożeniem są deepfake’i. Ten żywioł ma poskromić AI Act, wprowadzona przez UE jedna z pierwszych regulacji na świecie dla sztucznej inteligencji. Czego możemy się z jego strony spodziewać? Czy będzie bezpieczniej?

AI Act zacznie obowiązywać w przyszłym roku, niektóre kraje już we własnym zakresie zaczęły regulować deepfake’i, jak Włochy, gdzie Georgia Meloni, premierka Włoch, sama padła ofiarą deepfake’izacji, jej wizerunek trafił do filmu pornograficznego, więc ona postanowiła sama, bez czekania na AI Act, rozpocząć taką walkę z deepfake’ami. Mamy też międzynarodowe umowy dotyczące safe testingu, czyli bezpiecznego budowania modeli sztucznej inteligencji, ostatnio 18 państw podpisało taki pakt w Londynie, w tym gronie były Chiny. Mamy dekret prezydenta Bidena, mamy legislację w Kanadzie, tych instrumentów prawnych przybywa. Nasz AI Act jest z całą pewnością najambitniejszy, chociaż nie reguluje wszystkiego, pomija np. kwestie prawno-autorskie, a to jest w tym momencie zagadnienie bardzo, bardzo gorące. AI Act mówi o bezpiecznym wykorzystywaniu AI i takim, które jest bardziej ryzykowne i musi być dużo bardziej kontrolowane. Jeśli banki będą stosować sztuczną inteligencję do scoringu kredytowego, to muszą korzystać z jasnych, zrozumiałych narzędzi. Nie mogą stosować sztucznej inteligencji, której decyzje są niezrozumiałe. Więc ta regulacja w jakiś sposób mówi, że są takie dopuszczalne wykorzystania AI i są takie, do których mamy pewne wątpliwości i chcemy więcej transparentności. I mówi też o takich, które są całkowicie zakazane. I to np. w Europie ma być rozpoznawanie twarzy w przestrzeni publicznej. Nie chcemy się na to zgodzić.

Technologie
Fabrity patrzy na Zachód. W IT ożywienie od 2025 r.
Materiał Promocyjny
Transakcje M&A - ryzyka, trendy, praktyka
Technologie
Rząd Niemiec sprzedaje akcje właściciela T-Mobile. To część planu
Technologie
Brand24 zapłaci EY kilka milionów złotych
Technologie
Grupa AB liczy na wzrost popytu
Technologie
Szokująca pozycja na akcjach GameStop. Notowania ostro w górę
Technologie
Nie tylko CD Projekt. Producenci gier błyszczą w poniedziałek na giełdzie