Specjaliści obawiają się, że najbardziej narażone na fałszywe informacje mogą być osoby młode korzystające z różnego typu komunikatorów i mediów społecznościowych. Istotną rolę odgrywają boty, których działanie opracowano już w latach 50. XX wieku. Zdefiniowane algorytmy miały służyć do prowadzenia rozmowy z człowiekiem. Każda technologia stanowi jednak okazje do nadużycia. Niestety, tak też stało się w przypadku chatbotów. Zjawisko to szczególnie nabrało dynamiki w kontekście rozwoju mediów społecznościowych. Boty bowiem wprowadzają w błąd, manipulują dyskusją na forach, rozsyłają plotki, spam, złośliwe oprogramowanie, dezinformacje i oszczerstwa. Skutkuje to licznymi negatywnymi konsekwencjami dla całego społeczeństwa. Zjawisko to dotyczy również uczestników rynku kapitałowego.

Inwestorzy giełdowi zasypywani są megabajtami informacji. O ile wiadomości udostępniane w tradycyjnej formie za pośrednictwem specjalistycznych dzienników, takich jak „Parkiet", nie budzą żadnych wątpliwości, o tyle problemem stają się różnego typu serwisy internetowe. Tutaj także można odróżnić miejsca, które są prowadzone przez znane instytucje finansowe od różnego typu wątpliwych twórców. Jednak największym zagrożeniem okazują się w tym kontekście fora dyskusyjne lub informacje udostępniane przez chatboty. To nowa plaga, która staje się dużo większym zagrożeniem dla funkcjonowania wszystkich rynków niż funkcjonujące jeszcze kilka lat temu różnego typu plotki czy zmowy. Wówczas zjawisko odnosiło się do nielicznej grupy osób, teraz każdy fake news w krótkim czasie może objąć swoim zasięgiem tysiące osób.

Dlatego tak ważne jest radzenie sobie z weryfikacją informacji prawdziwych od tych, które są fałszywe. Ciekawą odpowiedzią w tym kontekście jest projekt realizowany przez jedną z krajowych uczelni. Jego celem jest zbudowanie narzędzia, które pozwoli ostrzegać osoby korzystające z różnych portali przed potencjalnie niebezpiecznymi treściami informacji o charakterze fałszywym albo mających znamiona dezinformacji. Rozwiązanie to pozwoli również na prezentowanie rzeczywistych treści mających podstawy naukowe, które odnoszą się do nieprawdziwych informacji, bazując na sprawdzonych i rzetelnych źródłach. Celem tego systemu jest budowa mechanizmu opisującego związki przyczynowo-skutkowe związane z potencjalnym zagrożeniem fałszywymi informacjami. Jego sercem będą metody detekcji oparte na algorytmach sztucznej inteligencji.

W dobie powszechnego dostępu do informacji mamy zupełnie inny problem niż 30 lat temu. Jeszcze w latach 90. ubiegłego wieku główny wysiłek skupiał się na zdobyciu informacji. Biblioteki były oblegane przez czytelników, a dotarcie do pożądanych publikacji graniczyło z cudem. Jednak w sytuacji, kiedy określony wolumen trafił w nasze ręce, mieliśmy stuprocentową pewność znajdujących się tam informacji. Obecnie mamy do czynienia z zupełnie odwrotną sytuacją. Dostęp do informacji jest w zasadzie nieograniczony i na przysłowiowe wyciągnięcie ręki sięgającej po urządzenie mobilne. Wpisanie do wyszukiwarki internetowej hasła pozwala na natychmiastowe udzielenie odpowiedzi. Niestety, najczęściej pokazuje się kilka tysięcy stron, na których można znaleźć różne odpowiedzi. Trudno jest ustalić, która z nich jest prawdziwa, która fałszywa. Mamy łatwość z dotarciem do informacji, ale problem z weryfikacją ich jakości.

Jak można w przyszłości zapobiegać wszechogarniającej potędze dezinformacji? Jednym z pomysłów może być to, co się już dzieje w przywołanej na wstępie Szwecji. Kraj ten już w 2018 r. ogłosił, że chce zacząć uczyć w szkołach, jak rozróżniać fałszywe informacje od prawdziwych. Może to podejście warte jest głębszego przemyślenia i zastosowania w ujęciu globalnym, tak aby obok takich przedmiotów jak języki, matematyka czy fizyka również pojawił się nowy przedmiot: „fejkologia".