Uruchomienie ChatGPT zapoczątkowało istną rewolucję. Rozwój technologii wykorzystujących konwersacyjną szcztuczną inteligencję, ale i generalnie zaawansowanych algorytmów dynamicznie przyspieszył. Biznes widzi w tym narzędzie do podnoszenia efektywności, cięcia kosztów i poprawiania jakości swoich produktów i usług. Jednak inteligentne boty to również masa zagrożeń – zarówno dla miejsc pracy, jak i fundamentów wielu przedsiębiorstw. Przekonała się o tym w ostatnim czasie amerykańska spółka Chegg, działająca w branży technologii edukacyjnych. Kalifornijski tzw. edtech od momentu startu ChatGPT w listopadzie ub.r. mocno stracił – przychody firmy zaczęły topnieć, a kurs na giełdzie runął o niemal 70 proc.
Akcje spółek zanurkowały
Chegg to platforma, która zapewnia pomoc w odrabianiu lekcji, umożliwia wypożyczanie cyfrowych podręczników i daje dostęp do korepetycji online. Spółka niedawno przyznała, że popularność ChatGPT zaszkodziła biznesowi. W I kwartale br. liczba subskrybentów skurczyła się o 5 proc., a zarząd edtechu zdecydował się wycofać z wcześniejszych prognoz finansowych. Prezes spółki Chegg pożalił się przy tym, że coraz więcej uczniów korzysta z darmowych chatbotów do odrabiania prac domowych, zamiast płacić za narzędzia do nauki. Reakcja rynku była błyskawiczna. Tylko jednego dnia nastąpiła gwałtowna, bo aż 51-proc., przecena akcji firmy.
Przedstawiciele spółki Chegg mieli odwagę głośno powiedzieć o tym, z czym mierzy się wiele innych firm z różnych branż. Powszechnie dostępna, bezpłatna sztuczna inteligencja podkopała fundamenty ich działalności. Przekonały się o tym przedsiębiorstwa edukacyjne Udemy i Pearson. Ten pierwszy podmiot od listopada nurkuje na giełdzie w USA (spadek o 45 proc.), zaś w przypadku drugiego tylko na przełomie kwietnia i maja notowania na londyńskim parkiecie spadły o 15 proc. (tym samym prawie 1 mld funtów zniknęło z giełdowej wartości firmy). Ucierpiał też Duolingo – akcje start-upu stojącego za popularną aplikacją do nauki języków w tym samym okresie zanurkowały na nowojorskiej giełdzie o 14 proc.
Dan Rosensweig, prezes spółki Chegg, najwyrażniej uznał, że jeżeli nie można tej rewolucji zatrzymać, to trzeba się do niej przyłączyć. I firma uruchomiła w zeszłym miesiącu własnego bota. To nie jest odosobniony przypadek, bo po AI w ostatnich miesiącach gwałtownie zaczęło sięgać coraz więcej firm, licząc na przyspieszenie swoich biznesów. Można w tym kontekście powiedzieć wręcz o boomie. Niewątpliwie potencjał takich narzędzi jest gigantyczny. Dowodzi tego zresztą najnowsze badanie University of Florida (UF).
Kolejna bomba atomowa?
Stworzony przez naukowców UF do eksperymentu algorytm handlowy ChatGPT przerósł najśmielsze oczekiwania jego autorów. Bot opracował model inwestycyjny, który zapewnił 500-proc. zwrot na giełdzie. Eksperci twierdzą, że to przełom, który uderzy w konwencjonalne analizy nastrojów stosowane przez fundusze hedgingowe. Czy zatem sztuczna inteligencja wywoła trzęsienie ziemi w branży finansowej i inwestycyjnej? Z pewnością doprowadzi do „wyścigu zbrojeń” AI. I to w wielu branżach. Taki niekontrolowany rozwój to jednak ogromne zagrożenie. Warren Buffett na corocznej konferencji inwestorów w Omaha powiedział wprost: wynalezienie AI to przełom, ale to obiecujące narzędzie jest bardzo niebezpieczne. Porównał nawet tę technologię do wynalezienia bomby atomowej. Uregulowanie algorytmów staje się więc priorytetem. W Unii Europejskiej powstaje właśnie „AI Act”. Jak zauważa Karolina Małagocka, ekspertka w obszarze nowych technologii z Akademii L. Koźmińskiego, prawo nie nadąża jednak za rozwojem sztucznej inteligencji. – Ta poszerza swoje możliwości wykładniczo, a prawo rozwijamy linearnie, do tego w określonym reżimie zasad. Zwykle regulowane są zresztą obszary już nam znane. Tymczasem pełne możliwości technologii są możliwe do określenia dopiero wtedy, kiedy następuje jej adopcja na szeroką skalę. Ciężko zatem jest tworzyć efektywne rozwiązania prawne, które będą o krok przed postępem technologicznym – tłumaczy. I zastrzega, że to nie oznacza, iż powinniśmy zwlekać lub że niektórych konsekwencji albo zakładanych zagrożeń nie da się przewidzieć.