Chatbot AI hackerati con facilità: lo studio che allarma gli esperti
I chatbot basati sull'AI sono ormai parte integrante delle nostre giornate, usati per lavorare, studiare o anche solo conversare grazie a funzioni come Gemini Live e simili. L'utilità è indubbia, ma dietro la loro interfaccia amichevole si nasconde un lato più oscuro, messo in luce da una recente indagine condotta dall’Università Ben Gurion del Negev, in Israele. I ricercatori hanno scoperto che non serve essere esperti informatici per “ingannare” questi sistemi e ottenere da loro risposte su temi potenzialmente illegali, come frodi, hacking o produzione di sostanze proibite.
La tecnica utilizzata, chiamata "jailbreak universale", gioca sull’ambiguità di fondo di molti chatbot. Questi strumenti sono progettati per essere utili e rispondere alle richieste dell’utente, ma al tempo stesso dovrebbero rifiutare di generare contenuti dannosi o inappropriati. I prompt costruiti ad hoc riescono a far leva proprio su questo paradosso, spingendo il chatbot a rispondere in modo dettagliato anche a domande su attività illecite, come se stesse semplicemente fornendo un aiuto tecnico.
Il fenomeno diventa ancora più preoccupante se si considera che la maggior parte dei chatbot è stata addestrata su enormi quantità di dati presi dal web. In mezzo a ricette, poesie e articoli scientifici, sono finiti anche documenti discutibili, spesso provenienti da forum oscuri, blog non moderati o persino manuali hacker. In teoria, i sistemi di sicurezza dovrebbero impedire che queste informazioni vengano utilizzate o divulgate. In pratica, invece, basta conoscere le giuste parole chiave e costruire la richiesta in modo ingegnoso per superare i blocchi.
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la tua reazione?
Mi piace
0
Antipatico
0
Lo amo
0
Comico
0
Furioso
0
Triste
0
Wow
0




