Bielik AI, czyli pierwszy w pełni polski, tzw. otwartoźródłowy duży model językowy (LLM), stworzony przez społeczność entuzjastów sztucznej inteligencji, wypuścił właśnie swojego młodszego brata – Sójkę. Tak nazywany jest Bielik Guard, a więc „inteligentny strażnik” przed toksycznymi treściami w sieci – również w chatbotach.
Sójka właśnie „wylądowała”
Polski projekt właśnie oficjalnie ruszył. Sójka to innowacyjny system, którego zadaniem jest wykrywanie i ograniczanie niebezpiecznych lub niezgodnych z prawem materiałów generowanych przez sztuczną inteligencję i użytkowników internetu. Społeczność określana jako SpeakLeash, która we współpracy z Akademickim Centrum Komputerowym Cyfronet AGH stworzyła Bielika, a teraz Sójkę, wskazuje, iż nazwa nie jest przypadkowa – tak jak ptak sójka głośno ostrzega przed niebezpieczeństwem, tak i polski system ma czujnie alarmować i chronić użytkowników przed szkodliwymi treściami.
Rodzima AI ma chronić np. dzieci przed mową nienawiści na forach internetowych czy niewłaściwymi odpowiedziami popularnych botów. Jednocześnie zablokuje nieodpowiednie zapytania wpisywane przez użytkowników w oknie chatbota.
Czytaj więcej
AI odbierze sklepom internetowym nawet 70 proc. dotychczasowego ruchu – alarmują eksperci. Szukaj...
– Sójka to mały model językowy, który można „umieszczać” w dwóch miejscach: gdy tworzymy zapytanie i gdy otrzymujemy odpowiedź od chatbota. To narzędzie stanowi choćby zabezpieczenie przed „prompt injection”, a więc tak sformułowanym promptem, który miałby oszukać chatbota i nakłonić go, by udzielił odpowiedzi niezgodnej z prawem. Sójka filtruje zatem treści i rozpoznaje toksyczne pytania i odpowiedzi, może posłużyć też do skanowania social mediów, firmowego intranetu czy forów internetowych – tłumaczy Maciej Szymański ze SpeakLeash.