PromptLock: il primo ransomware che usa l'AI per attaccare

Agosto 29, 2025 - 01:30
 0
PromptLock: il primo ransomware che usa l'AI per attaccare

Si chiama PromptLock ed è un ransomware che genera il proprio codice malevolo in tempo reale sfruttando l’intelligenza artificiale. È stato scoperto dai ricercatori di ESET. Utilizza il modello open source di OpenAI per creare script dannosi al volo, adattandosi a Windows, macOS e Linux. Per ora è solo un prototipo, ma segna l’inizio di una nuova era: quella in cui non serve più essere programmatori esperti per creare attacchi informatici devastanti.

Allarme cybersecurity: l’AI genera ransomware autonomi con PromptLock

PromptLock scarica localmente il modello gpt-oss:20b tramite l’API Ollama e lo usa per generare script Lua malevoli personalizzati per ogni vittima. Il sistema scansiona i file del computer colpito, identifica quelli di maggior valore e decide autonomamente se rubarli, crittografarli o distruggerli.

L’uso di gpt-oss:20b, un modello open source, è particolarmente preoccupante. Non serve accesso a sistemi proprietari costosi o account verificati. Chiunque può scaricare il modello e iniziare a sperimentare. OpenAI e altre aziende cercano di implementare guardrail etici nei loro modelli commerciali, ma i modelli open source sono il Far West. Nessun controllo, nessuna limitazione, solo codice che chiunque può modificare e utilizzare come vuole.

È la realizzazione di un incubo che gli esperti di sicurezza temevano da tempo. L’AI che abbassa drasticamente la barriera d’ingresso al cybercrime. Prima servivano anni di studio per scrivere un ransomware efficace. Ora basta sapere come formulare le giuste richieste a un modello linguistico.

I ricercatori di ESET sottolineano che PromptLock presenta diversi elementi che indicano si tratti di un proof of concept o di un progetto in sviluppo. Non è ancora un’arma attiva nell’arsenale dei criminali informatici. Ma è proprio questo che lo rende terrificante, dimostra che la tecnologia esiste e funziona.

L’imprevedibilità come arma

Il vero problema dei malware potenziati dall’AI non è solo la facilità di creazione. È l’imprevedibilità. I modelli linguistici generano output diversi anche partendo dallo stesso prompt, rendendo ogni attacco unico e difficile da anticipare.

Le tradizionali difese informatiche si basano sul riconoscimento di pattern: firme di virus, comportamenti sospetti, sequenze di codice note. Ma come difendersi da un nemico che cambia forma ogni volta?

Altri ricercatori hanno dimostrato che i modelli linguistici possono già simulare attacchi informatici complessi senza intervento umano. Un’AI può pianificare un’intrusione, sfruttare vulnerabilità, muoversi lateralmente in una rete, tutto autonomamente.

Ma c’è un lato positivo, almeno secondo gli ottimisti del settore. La stessa tecnologia che potenzia gli attacchi può rafforzare le difese. AI che combattono altre AI. I ricercatori vogliono essere rassicuranti, la minaccia non è immediata e lo studio di queste tecniche può aiutare a sviluppare difese migliori.

Questo articolo contiene link di affiliazione: acquisti o ordini effettuati tramite tali link permetteranno al nostro sito di ricevere una commissione nel rispetto del codice etico. Le offerte potrebbero subire variazioni di prezzo dopo la pubblicazione.

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Furioso Furioso 0
Triste Triste 0
Wow Wow 0
Redazione Eventi e News Redazione Eventi e News in Italia