Wpisałam w ChatGPT polecenie: mam 10 tys. zł i chcę zacząć inwestować. Chat w pięć sekund przygotował odpowiedź, że może pomóc w inwestowaniu na giełdzie, na poziomie dla początkujących i zaawansowanych. Oferuje pomoc w zrozumieniu, jak działa giełda, jakie są różnice między akcjami, ETF-ami, funduszami. Co to jest analiza techniczna i, wreszcie, co to jest ryzyko, dywersyfikacja, dźwignia. Zaoferował wreszcie dopasowanie strategii do mojego profilu inwestowania i pomoc w budowie portfela. Co myślisz o takim szukaniu wiedzy i czy warto wierzyć podpowiedziom AI?
Muszę przypomnieć, że algorytmy i szybkie dokonywanie transakcji, high frequency trading, są z nami od dekad. Znane są hedge funds, które po prostu inwestują w to, co my chcemy, są zorganizowane na bazie wyliczeń i algorytmów. Nawet jeden z najbardziej znanych funduszy zakładany przez matematyków, mający jeden z najwyższych zwrotów z inwestycji, właśnie wykorzystywał komputery. Więc high frequency trading, powiązany z algorytmami, z analizą techniczną, przepływami, na rynkach finansowych jest od dawna. To też się przełożyło na coraz niższą, mniej spotykaną rolę maklerów, dlatego że przeszliśmy na aplikacje, od czasów pandemii mamy rozkwit aplikacji jak Robinhood, u nas pewnie też aplikacji typu XTB. Więc to, że przechodzimy w kierunku inwestowania opartego na nowych technologiach nie jest niczym nowym, to jest trend, który trwa od dekad. Nowością jest, że do tej pory, gdy szukałem wiedzy, jak zainwestować swoje pieniądze, jakie są aktywa, ETF-y czy akcje, kontrakty, szukałem tego w książkach, na blogach, webinarach, szkoleniach. Dzięki temu, że mamy duże modele językowe, które wciągnęły całą wiedzę z internetu, filmy z YT i innych platform, to one dzielą się tym, co pobrała AI. Ale trzeba mieć z tyłu głowy, że to są algorytmy, które pobrały różną wiedzę, również fałszywą.
Algorytmy AI się mylą?
Używam regularnie tych algorytmów, Perplexik i Cloda, mogę wymieniać kolejne 11 aplikacji, które testuję, również chiński DeepSeek, bo staram się wyrobić sobie zdanie. I widzę, że one się jednak mylą, że czasami nie mają najświeższej wiedzy. A algorytmy nie wiedzą, że się mylą, one po prostu szukają odpowiedzi najbliższych naszemu zapytaniu. Największy problem polega na tym, że ja regularnie widzę, jak ich odpowiedzi są niewiarygodne. Zdarzają się halucynacje.
Co się wydarzy, jeśli sztuczna inteligencja zacznie mieć halucynacje w kwestii porad inwestycyjnych, możemy na tym ponieść realne straty?
Porady AI można wykorzystywać, gdy mamy eksperta po drugiej stronie, który wie, co sztuczna inteligencja wypracowała i czy AI się myli, czy nie. Gdy ja zapytałem o gigafabryki AI, wiedziałem, że to, co mi pokazały algorytmy, jest po prostu fałszem, ale dlatego, że znam ten temat. Dlatego AI to jest narzędzie, które może pomagać, ale pod warunkiem, że my mamy wiedzę. Czyli jeśli ktoś miałby polegać na przykład na jakiejś terapii lekowej albo właśnie pytał, jakie spółki powinienem kupić, i to by się przekładało na poważne pieniądze, nie na zabawę. 1000 czy 10 000 zł, to jest co innego. Jeśli w grę wchodzi dobytek całej rodziny, nigdy bym nie zaufał na pewno publicznemu algorytmowi typu ChatGPT.
Jaka jest przyszłość odpowiedzialności AI za porady czy zmyślone informacje?
Jest akt o AI, który mówi, że produkty muszą być bezpieczne, ale przede wszystkim dane, na bazie których karmiony był algorytm, muszą być dostępne publicznie. Że firma musi opublikować informacje, z jakich danych korzystała, trenując ten algorytm. Była dyskusja teraz w Komisji Europejskiej, w Parlamencie Europejskim, niestety zatrzymana, nazywała się AI liability. Chodziło o określenie, jak dostawcy tych produktów, które AI wprowadza na rynek, mogliby być pociągnięci do odpowiedzialności. Nie było konsensusu w tej sprawie. Jest już sporo przypadków, gdzie ktoś rozmawiał z chatem konsumenckim na stronie i chatbot się pomylił, źle doradził, a linia lotnicza straciła ogromne środki. W konsekwencji uważam, że dostawca tego produktu powinien być odpowiedzialny, spodziewam się pozwów, zapewne w Stanach Zjednoczonych, a nie w Polsce.To już się dzieje chociażby w temacie praw autorskich, gdzie wykorzystywane są dane bez zgód wielkich dostawców mediów „New York Timesa" i innych, i ci dostawcy się sprzeciwiają takiemu nielegalnemu korzystaniu. To gigantyczny problem, dojdziemy do dyskusji jak z autem autonomicznym – kto ponosi odpowiedzialność za wypadek. To raj dla prawników.