W 2025 r. ransomware sterowane AI stało się rzeczywistością – analitycy ESET wykryli PromptLock, oprogramowanie zdolne do generowania złośliwych skryptów w czasie rzeczywistym. Jednak to niejedyne zagrożenie związane z rozwojem technologii. ESET wskazuje kilka newralgicznych obszarów AI:
- Bezpieczeństwo modeli: rozpowszechnianie publicznych modeli AI o niejasnej logice wewnętrznej i nieznanych danych treningowych
- Złośliwe wykorzystanie AI: inżynieria społeczna wspomagana przez AI, taka jak deepfake, e-maile czy reklamy, będzie napędzać oszustwa na dużą skalę
- Boty online: zaawansowane boty AI będą wykorzystywać luki w zautomatyzowanych procesach rekrutacyjnych oraz posłużą do kampanii dezinformacyjnych, oszustw i wyłudzeń
- Bezpieczeństwo agentów AI: rozwiązania agentowe będą zmierzać w stronę głębokiej integracji z systemami enterprise i chmurowymi, jednak bezpieczeństwo będzie pozostawać w tyle, co doprowadzi do znacznego rozszerzenia powierzchni ataku