Stosowanie rozwiązań opartych na AI w wielu firmach w naszym kraju staje się już normą i szansą na istotne zwiększenie efektywności swoich działań. Jednak, jak każda technologia, również i ta niesie ze sobą zarówno ogromny potencjał, jak i liczne zagrożenia, w tym choćby te cybernetyczne. Jak się okazuje, rodzimi przedsiębiorcy nie bagatelizują kwestii dotyczące cyberbezpieczeństwa przy implementacji narzędzi AI. Z najnowszych badań EY wynika, iż ponad połowa z nich (55 proc.) rozważa ten aspekt, ale kolejne 37 proc. też bierze go pod uwagę, choć w ograniczonym zakresie. Tylko 3 proc. respondentów w naszym kraju zupełnie ignoruje ten temat.
Sytuacja pozornie dobra?
Raport „Jak polskie firmy wdrażają AI” może napawać optymizmem – świadomość ryzyk związanych z wykorzystaniem m.in. popularnych botów jest bowiem wśród przedsiębiorców nad Wisłą wyjątkowo wysoka. Wedle EY aż dwie trzecie ankietowanych wdrożyło procedury dotyczące stosowania sztucznej inteligencji (przynajmniej dla ogólnodostępnych systemów AI). W tym najwięcej respondentów (40 proc.) wdrożyło politykę korzystania zarówno z wewnętrznych, jak i ogólnodostępnych narzędzi AI (np. chatbotów), zaś 26 proc. wzięło pod kontrolę używanie wyłącznie zewnętrznych systemów. Co istotne, kolejne 30 proc. firm rozważa wprowadzenie odpowiednich procedur dotyczących używania systemów AI.
Jednakże, wbrew pozorom, wcale sytuacja nie musi wyglądać aż tak dobrze, jak twierdzą przedstawiciele polskich firm.
– Wraz ze wzrostem zastosowań sztucznej inteligencji pojawiają się nowe zagrożenia, które wymagają ochrony sieci i systemów informatycznych przed atakami. Firmy w Polsce deklarują, że analizują potencjalne ryzyka, ale praktyka w wielu przypadkach wygląda mniej optymistycznie – twierdzi Piotr Ciepiela, partner EY.
Jak zaznacza, AI jest postrzegana głównie jako technologiczna nowość i kojarzona z takimi rozwiązaniami jak chatboty. – Tymczasem to zupełnie nowy obszar ryzyka, a wiele przedsiębiorstw nie jest przygotowanych na cybernetyczne zagrożenia. Zaliczymy do nich ataki z wykorzystaniem spersonalizowanych wiadomości phishingowych w celu kradzieży danych czy też łatwiejsze pisanie kodów przez hakerów, którzy chcą znaleźć luki w oprogramowaniu – zaznacza.