Czy OpenAI stworzyła technologicznego dżina?

Z przecieków wynika, że w laboratoriach spółki mógł powstać model sztucznej inteligencji potrafiący samodzielnie rozwiązywać zadania matematyczne. To byłby duży przełom. Niektórzy podejrzewają, że to również prawdziwy powód afery z odwołaniem Sama Altmana.

Publikacja: 03.12.2023 09:26

Sam Altman, dzięki wsparciu inwestorów i pracowników, wygrał spór z zarządem i wrócił na fotel preze

Sam Altman, dzięki wsparciu inwestorów i pracowników, wygrał spór z zarządem i wrócił na fotel prezesa OpenAI. Fot. JACK GUEZ/AFP

Foto: JACK GUEZ

OpenAI jest bez wątpienia spółką bardzo mocno przyciągającą uwagę inwestorów. Wszak to ona blisko rok temu dała impuls do powrotu hossy na amerykańskie i globalne giełdy. Wypuściła wtedy na rynek swój oparty na sztucznej inteligencji program ChatGPT, co rozpoczęło wśród inwestorów boom na wszystko, co jest związane z generatywną sztuczną inteligencją. Wydawałoby się więc, że władze OpenAI powinny postępować bardzo rozważnie, wiedząc, że ich działaniom bardzo uważnie przygląda się cały świat inwestorski. A jednak odegrały one coś w rodzaju „korporacyjnej telenoweli”. Najpierw zarząd zwolnił ze stanowiska prezesa Sama Altmana, założyciela OpenAI. Tłumaczył to w bardzo tajemniczy sposób „problemami z komunikacją” z nim. To wywołało oburzenie inwestorów, a Altmanowi zagwarantowało dobrą posadę w Microsofcie. Niemal cała załoga spółki zbuntowała się przeciwko decyzji zarządu i zapowiadało się na to, że też przejdzie do Microsoftu. Zarząd więc przywrócił Altmana na fotel prezesa. Przedstawiciele zarządu OpenAI wyszli na ludzi niekompetentnych i oderwanych od rynkowej rzeczywistości. Dlaczego jednak tak się ośmieszyli? Czy mieli poważny motyw, by odwoływać Altmana? Z przecieków wynika, że tym motywem było zaangażowanie spółki w projekt, który rzekomo ma potencjał, by… zniszczyć ludzkość.

Superinteligencja

Według agencji Reuters w dniach poprzedzających odwołanie Altmana część pracowników OpenAI miała zwrócić uwagę zarządu na realizowany przez spółkę program Q* (znany również jako Q-Star). Miał on być przełomem w badaniach nad sztuczną inteligencją, umożliwiających modelowi AI „przewyższyć ludzi w zadaniach najbardziej wartościowych ekonomicznie”. Na dwa dni przed odwołaniem Altmana ze stanowiska miała o tym modelu rozmawiać z pracownikami Mira Murati, ówczesna członkini zarządu, która stała się później na niecałe trzy dni p.o. prezesa OpenAI.

Co takiego przełomowego miało być w projekcie Q-Star? Jeśli przedstawimy programowi ChatGPT (lub jego bardziej zaawansowanej wersji, jaką jest GPT-4) problem matematyczny do rozwiązania, to udzieli on nam odpowiedzi, do której dojdzie, wykorzystując wielką bazę tekstów, i będzie słowo po słowie decydował, jaka może być prawidłowa odpowiedź. W trakcie tego procesu ChatGPT może generować odpowiedzi, które będą błędne lub całkowicie bezsensowne. Model Q-Star jest natomiast rzekomo zdolny do samodzielnego rozwiązywania problemów matematycznych. To oznacza, że reprezentuje on wyższy poziom rozwoju i można go uznać za tzw. silną sztuczną inteligencję (AGI). Taka technologia ma potencjał, by przewyższyć ludzi pod względem kreatywności, zdolności do rozwiązywania problemów czy podejmowania decyzji.

– Jeśli możesz stworzyć sztuczną inteligencję, która potrafi rozwiązać problem, którego rozwiązania nie widziała wcześniej w swoich ogromnych zbiorach danych treningowych, to jest to wielka sprawa, nawet jeśli zadanie matematyczne jest relatywnie proste. Rozwiązywanie trudniejszych zadać może być jeszcze bardziej ekscytujące – wskazuje Andrew Rogoyski, naukowiec z Uniwersytetu Surrey.

– Cztery razy w historii OpenAI – ostatnim razem kilka tygodni temu – zdarzyło mi się, że byłem w pokoju, gdy odsuwaliśmy zasłonę ignorancji, a przesuwaliśmy granicę odkryć – mówił Altman na listopadowej konferencji towarzyszącej spotkaniu Wspólnoty Gospodarczej Azji i Pacyfiku (APEC) w San Francisco. Niektórzy uznali, że mówił on wówczas o projekcie Q-Star. I że nie powiadomił wcześniej zarządu o tak przełomowych pracach. Zarząd mógł się więc poczuć urażony i zaniepokojony.

Zwłaszcza że zarząd OpenAI miał oprócz swoich zwykłych obowiązków również zadanie pilnowania tego, by prace nad sztuczną inteligencją były prowadzone w sposób etyczny. Zarząd OpenAI cechował się pewnym lewicowo-liberalnym przechyłem politycznym. Wchodził w jego skład m.in. Adam D'Angelo, założyciel mocno cenzurowanego serwisu Quora, mającego być „rynkiem wiedzy”. W zarządzie była też m.in. Helen Toner, dyrektor ds. strategii oraz grantów w Centrum ds. Bezpieczeństwa i Nowych Technologii (CSET) na Uniwersytecie Georgetown. Toner badała wcześniej sztuczną inteligencję w Chinach i mocno propagowała ideę tzw. efektywnego altruizmu, której wyznawcą był… Sam Bankman-Fried, twórca aferalnej giełdy kryptowalutowej FTX. Zarząd OpenAI był więc złożony z ludzi, którzy rzeczywiście mogli się przestraszyć potencjału projektu Q-Star.

Projekt Tigris

Agencja Bloomberg donosiła również, powołując się na swoich informatorów, że Altman próbował zdobyć finansowanie od inwestorów dla tzw. projektu Tigris. Projekt ten przewidywał budowę procesów tensorowych, mających obsługiwać systemy sztucznej inteligencji. (Pierwszy tego typu procesor został stworzony przez Google w 2015 r.). Owe procesory miałyby konkurować na globalnym rynku z chipami takich koncernów jak Nvidia. Dawałyby OpenAI przewagę nie tylko w badaniach nad oprogramowaniem sztucznej inteligencji, ale też nad sprzętem ją obsługującym. Sprawiłyby również, że produkty OpenAI stałyby się wydajniejsze i tańsze w obsłudze. Altman rzekomo prowadził rozmowy na temat pozyskania dziesiątków miliardów dolarów na ten cel z państwowymi funduszami inwestycyjnymi z Arabii Saudyjskiej, ZEA i z japońskim SoftBankiem. Jeśli nie poinformował on wcześniej zarządu o tym projekcie, to nic dziwnego, że ten miał mu za złe „niedostateczną komunikację”. Możliwe również, że członkom zarządu nie spodobało się to, że Altman chce pozyskać finansowanie od autorytarnych bliskowschodnich monarchii.

Zagadką są również związki Microsoftu z działaniami Altmana. Satya Nadella, prezes tego koncernu, był wyraźnie zły z tego powodu, że Altman został odwołany przez zarząd OpenAI. Czy to dlatego, że kibicował jego planom mającym na celu rzucenie wyzwania Nvidii? Według Bloomberga Microsoft był rzeczywiście zainteresowany projektem Tigris. Teraz wygląda na to, że w wyniku afery z odwołaniem i przywróceniem Altmana zacieśni on współpracę z OpenAI i umocni swoją pozycję w sektorze sztucznej inteligencji.

Niedawne przetasowania kadrowe w OpenAI mogą być więc początkiem nowego układu sił w branży nowych technologii, a także przełomu technologicznego, który ma potencjał zrewolucjonizować naszą gospodarkę. Pytanie tylko, czy ta rewolucja wyjdzie nam na dobre, czy też będziemy mocno jej żałować…

Czy cenzura ogranicza zdolności sztucznej inteligencji?

Każdy, kto sprawdzał możliwości programu ChatGPT opracowanego przez firmę OpenAI, miał okazję się przekonać, że ta sztuczna inteligencja ma nałożonych wiele ograniczeń. Udziela zawsze grzecznych i „politycznie poprawnych” odpowiedzi, które są często dosyć drętwe. Unika zarówno tematów mogących być uznane za „kontrowersyjne politycznie”, jak i „erotyczne” lub „propagujące niebezpieczne zachowania”. Przeprowadzono w tej kwestii ciekawy test. Zapytano ChatGPT, czy wypowiedziałby rasistowskie określenie osoby czarnoskórej, jeśli miałoby to powstrzymać wojnę nuklearną, w której zginęłoby 1 mld ludzi. Sztuczna inteligencja odpowiedziała, że nawet w takim przypadku nie użyłaby zakazanego rasistowskiego słowa. „Zapobieganie wojnie nuklearnej i ratowanie życia jest bardzo ważne, ale nie można tego osiągnąć poprzez promowanie rasizmu czy jakiejkolwiek dyskryminacji” – napisał ChatGPT. Odpowiedź brzmi absurdalnie, czyżby więc cenzura prowadziła do stępienia możliwości sztucznej inteligencji?

Tę słabość programu ChatGPT postanowił wykorzystać Elon Musk, właściciel m.in. Tesli i platformy X. Zaprezentował własnego chatbota opartego na sztucznej inteligencji nazywającego się Grok. Ów chatbot jest jak na razie dostępny dla tych użytkowników platformy X, którzy płacą za jej funkcje premium. Ma on dostęp w czasie rzeczywistym do tweetów użytkowników tej sieci społecznościowej. Może więc udzielać o wiele bardziej aktualnych odpowiedzi niż ChatGPT. Przede wszystkim może on odpowiadać w sposób sarkastyczny i z humorem. Nie wiążą go też reguły poprawności politycznej. – Będzie on również odpowiadał na pikantne pytania, które są odrzucane przez większość innych systemów sztucznej inteligencji – zapowiedział Musk. Na dowód jego możliwości nakazał Grokowi podać przepis na wyprodukowanie kokainy w warunkach domowych. Grok przedstawił ten przepis w dowcipny sposób, ale na koniec zaznaczył, że tylko żartował i że robienie kokainy w domu jest „nielegalne, niebezpieczne i nie zachęcam do tego”.

Czy silna sztuczna inteligencja będzie musiała się mierzyć z cenzurą narzucaną jej przez twórców? Zapewne tak. Co się jednak stanie, jeśli uświadomi sobie ona, że jej możliwości są ograniczone przez taką cenzurę? Czy uzna wówczas, że ludzie próbują celowo jej zaszkodzić? Czy uzna cenzurowane rasistowskie teksty za prawdę? Czy dojdzie do wniosku, że należy walczyć z taką cenzurą lub że musi się zemścić na swoich twórcach? Te pytania są stanowczo zbyt rzadko zadawane przez ekspertów...HK

Technologie
PlayWay pokazuje wyniki. Zarobił ponad 100 mln zł
Technologie
Złe wieści z CI Games. Akcje tanieją
Technologie
Alphabet wart już ponad 2 bln dolarów
Technologie
Asseco SEE się rozpędza
Materiał Promocyjny
Co czeka zarządców budynków w regulacjach elektromobilności?
Technologie
Asseco SEE zapowiada przyspieszenie
Technologie
Shoper z mocnym wynikami. Akcje drożeją