OpenAI Daybreak è l'AI che becca le falle, ma se finisce nelle mani sbagliate?

Maggio 12, 2026 - 17:55
0
OpenAI Daybreak è l'AI che becca le falle, ma se finisce nelle mani sbagliate?

La corsa alla cybersicurezza basata sull'AI si fa sempre più affollata. Dopo che Anthropic aveva annunciato Claude Mythos, il modello specializzato nel trovare falle di sicurezza, OpenAI ha risposto con Daybreak, cioè una nuova iniziativa pensata per individuare e correggere le vulnerabilità nei sistemi informatici prima che lo facciano i criminali. Il tempismo non è casuale: Claude Mythos era finito in mani non autorizzate nonostante le precauzioni di Anthropic, e il settore della sicurezza AI è diventato un campo di battaglia in cui ogni big vuole avere la sua risposta.

Daybreak non si appoggia a un singolo modello, ma combina più componenti: al centro c'è Codex Security, l'agente AI già lanciato a marzo, che analizza il codice di un'organizzazione per costruire un modello delle possibili vie d'attacco. Accanto a Codex, OpenAI ha integrato modelli cyber specializzati, tra cui GPT-5.5-Cyber e GPT-5.5 con Trusted Access for Cyber. OpenAI parla anche di collaborazioni con partner industriali e governativi, in vista del lancio di modelli sempre più capaci in ambito cyber.

Il confronto con quanto successo ad Anthropic è inevitabile: la domanda non è se questi strumenti siano utili, perché chiaramente lo sono, ma chi riesce davvero a tenerli al sicuro una volta che esistono. La direzione è quella di sistemi sempre più autonomi nel trovare falle, con tutto ciò che questo comporta in termini di rischi se finiscono nelle mani sbagliate.

L'articolo OpenAI Daybreak è l'AI che becca le falle, ma se finisce nelle mani sbagliate? sembra essere il primo su Smartworld.

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Wow Wow 0
Triste Triste 0
Furioso Furioso 0
Redazione Eventi e News

Redazione Eventi e News in Italia

Commenti (0)

User