Nuove regole per Claude: stop ad armi e malware, più libertà sulla politica
Anthropic ha rivisto le regole d’uso di Claude, il suo chatbot AI, introducendo una stretta più chiara e mirata. Nelle nuove policy, l’azienda americana ha specificato il divieto assoluto di utilizzare il modello per sviluppare armi biologiche, chimiche, radiologiche o nucleari (CBRN), oltre a ordigni esplosivi ad alto potenziale. Una modifica che rafforza la precedente formula generica, che parlava solo di “armi o materiali pericolosi”, e che riflette le crescenti preoccupazioni per i rischi di un’AI in mani sbagliate.
La mossa arriva a pochi mesi dall’introduzione del livello di sicurezza “AI Safety Level 3”, implementato con il lancio del modello Claude Opus 4. Questa barriera aggiuntiva punta a rendere più difficile il cosiddetto jailbreaking dei modelli, ossia i tentativi di aggirare i limiti per ottenere risposte vietate, come appunto indicazioni utili allo sviluppo di armi di distruzione di massa.
Ma non si tratta solo di armi. Anthropic ha inserito nel regolamento anche un nuovo capitolo dedicato al cyberspazio, intitolato “Do Not Compromise Computer or Network Systems”. Qui si vieta esplicitamente l’uso di Claude per individuare vulnerabilità, creare malware, avviare attacchi informatici o sviluppare strumenti di denial-of-service.
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la tua reazione?






