Rewolucyjne narzędzie od OpenAI jest w stanie odpowiadać na wiele pytań i pomagać w prowadzeniu biznesu – analizuje, systematyzuje i rozwiązuje problemy. Coś, co zespołom specjalistów różnych dziedzin zajęłoby wiele godzin czy dni, bot robi w sekundy. Niezwykle popularny ChatGPT ma jednak też swoje wady. Eksperci wskazują, że istnieje ryzyko wycieków danych dostarczanych systemowi AI.
Pracownicy przedsiębiorstw i instytucji korzystają bowiem z tego oprogramowania nierozważnie, udostępniając poufne dane firmowe i wrażliwe informacje o klientach. Brytyjska agencja wywiadowcza GCHQ oficjalnie ostrzegła, że zapytania wprowadzane do systemów AI mogą trafić do domeny publicznej albo na skutek ataku hakerskiego, albo w wyniku wykorzystania przesłanych materiałów do „uczenia” bota.
Kod źródłowy trafił do sieci
Po początkowym zachłyśnięciu się świata nowatorskim chatbotem przychodzi czas na otrzeźwienie. A problem jest poważny. Cyberhaven, amerykańska firma specjalizująca się w usługach bezpieczeństwa IT, podała, że przeanalizowała wykorzystanie ChatGPT przez 1,6 mln pracowników różnych przedsiębiorstw i instytucji i okazało się, iż poufne dane były wklejane do systemów AI około 200 razy w tygodniu (ów współczynnik dotyczył każdej badanej firmy zatrudniającej co najmniej 100 tys. pracowników). Najgłośniejszy incydent tego typu dotyczył do tej pory Samsunga. Pracownicy jednej z fabryk półprzewodników wprowadzili do chatbota poufne informacje, w tym kod źródłowy, jeden z najściślej strzeżonych sekretów firmy technologicznej. W rezultacie cenne tajemnice handlowe nieumyślnie wpadły w posiadanie OpenAI.
Nic dziwnego, że ban na stosowanie ChatGPT wprowadziły już Włochy, częściowe ograniczenia wdrożyły też władze Hongkongu, a przymierzają się do tego Hiszpania i Kanada. Zakazy używaniu konwersacyjnej sztucznej inteligencji wśród pracowników obowiązują już w wielu firmach na świecie, a teraz – jak dowiedział się „Parkiet” – do podobnego scenariusza przymierzają się podmioty sektora finansowego w naszym kraju. W jednej z instytucji już zablokowano dostęp do programów bazujących na API (tzw. wtyczkach) do ChatGPT.
Piotr Kluczwajd, ekspert Business Centre Club ds. AI, wskazuje na duże zainteresowanie świata przestępczego takimi platformami. – Aktywnie wykorzystuje on te narzędzia do intensywnych prób nielegalnego pozyskiwania danych przekazywanych przez nieświadomych użytkowników – ostrzega.