Google scopre un exploit creato con lAI per colpire una falla ancora sconosciuta
Secondo Google, l’AI sarebbe già stata usata per sviluppare un exploit zero-day, cioè uno strumento capace di sfruttare una falla prima che venga scoperta e corretta. Il caso riguarda una vulnerabilità in un popolare strumento open source di amministrazione web: lo script era nelle mani di attori criminali e sarebbe stato destinato a un’operazione su larga scala, ma Google sostiene di averne interrotto l’uso prima dell’impiego previsto.
La vulnerabilità permetteva di aggirare l’autenticazione a due fattori, anche se servivano comunque credenziali valide. La falla non bastava quindi, da sola, per entrare in un account senza username e password. Poteva però diventare pericolosa se associata a credenziali già rubate, ottenute per esempio tramite phishing, malware o altre tecniche di compromissione.
IL CASO ZERO-DAY
Secondo GTIG, l’exploit sarebbe stato sviluppato con il supporto dell’AI sia nella fase di scoperta della vulnerabilità sia in quella di trasformazione della falla in uno strumento d’attacco. Google precisa di non ritenere che sia stato usato Gemini, ma afferma di avere un livello di confidenza elevato sull’impiego di un modello AI. A suggerirlo sarebbero diversi elementi interni allo script, tra cui la struttura del codice, docstring molto didattiche, un punteggio CVSS inventato e una costruzione Python ordinata, quasi da manuale.
Il punto più rilevante riguarda il tipo di errore individuato. Non si trattava di una vulnerabilità classica, come la corruzione della memoria o una cattiva validazione degli input, ambiti su cui gli strumenti di sicurezza lavorano da anni. Era invece una falla logica, legata a un’assunzione di fiducia inserita nel codice dagli sviluppatori. In pratica, il sistema considerava sicura una determinata condizione, aprendo la strada al bypass della 2FA.
Secondo Google, i modelli più avanzati non sono ancora in grado di gestire facilmente qualunque architettura complessa, ma stanno migliorando nel leggere il contesto di un’applicazione, nel capire l’intento dello sviluppatore e nel trovare incoerenze che possono sfuggire agli strumenti tradizionali. Non vuol dire che l’AI possa scoprire automaticamente qualsiasi falla, ma indica una capacità crescente di individuare errori meno evidenti e più legati alla logica del software.
ATTACCHI PIÙ AUTONOMI
Il rapporto allarga poi il quadro oltre il singolo exploit. Gli attori malevoli starebbero usando l’AI in più fasi degli attacchi: ricerca di vulnerabilità, sviluppo di exploit, creazione di malware, offuscamento del codice, ricognizione, social engineering, operazioni informative e accesso mascherato ai modelli. GTIG cita anche attività associate alla Cina e alla Corea del Nord, con tentativi di usare prompt costruiti per simulare esperti di sicurezza e dataset specializzati.
Un altro fronte riguarda il malware. Google segnala strumenti in cui l’AI sarebbe stata usata per accelerare lo sviluppo, generare codice di copertura e rendere meno immediata l’analisi da parte dei sistemi di difesa. Nel rapporto vengono citate anche attività riconducibili alla Russia contro organizzazioni ucraine, con codice-esca generato da LLM per nascondere la funzione reale del malware.
La parte più avanzata riguarda PROMPTSPY, una backdoor Android già individuata da ESET e descritta da Google come esempio di malware con componenti agentiche basate su LLM. Il modulo indicato da GTIG, chiamato "GeminiAutomationAgent", sarebbe progettato per interpretare ciò che accade sullo schermo del dispositivo e restituire azioni come tocchi e swipe. PROMPTSPY potrebbe inoltre impossessarsi dei dati biometrici della vittima per riprodurre gesti di autenticazione, come PIN o sequenze di sblocco. Google afferma di aver disabilitato gli asset collegati a questa attività e precisa che, al momento, non risultano app con PROMPTSPY presenti su Google Play.
Google cita anche l’impiego difensivo della stessa tecnologia: agenti AI come Big Sleep vengono usati per individuare vulnerabilità software, mentre le capacità di reasoning di Gemini sono integrate in strumenti come CodeMender, pensati per correggerle automaticamente.
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la tua reazione?
Mi piace
0
Antipatico
0
Lo amo
0
Comico
0
Wow
0
Triste
0
Furioso
0
Commenti (0)