Le "Big AI" acconsentono ai test di sicurezza governativi dei modelli pre-lancio
Tutte e cinque le “Big AI” americane, vale a dire Google, Microsoft, xAI, Anthropic e OpenAI, hanno acconsentito a far valutare al governo federale (nello specifico il Center for AI Standards and Innovation o CAISI) i propri modelli AI prima di rilasciarli pubblicamente: lo ha appena riportato nelle scorse ore Bloomberg. Per le prime tre l’accordo è del tutto nuovo, mentre OpenAI e Anthropic, già coinvolte dal 2024, hanno aggiornato i propri accordi per allinearli alle priorità dell’AI Action Plan promosso dall’amministrazione Trump.
Il CAISI, che opera sotto il National Institute of Standards and Technology, ha già completato oltre 40 valutazioni, incluse analisi su modelli non ancora pubblici. Nato nel 2023 come AI Safety Institute durante l’amministrazione Biden, il centro è stato successivamente rinominato, ma mantiene un ruolo sostanzialmente invariato: testare i sistemi avanzati per rischi legati a cybersecurity, biosicurezza e potenziale uso improprio in ambito chimico. In sostanza, il Centro si occupa di assicurarsi che gli utenti non possano chiedere ai chatbot informazioni potenzialmente molto pericolose, per esempio come realizzare una bomba in casa, o come hackerare un sito internet.
Il ruolo del CAISI non è ancora stato formalizzato e codificato in modo permanente e ufficiale dal punto di vista normativo e legale, ma il Congresso ci sta lavorando. Delle bozze sono state sottoposte, ma per ora nulla è stato approvato. Esiste anche la possibilità che quelle che per ora sono intese volontarie diventino un domani obbligatorie: secondo alcune fonti interne l’amministrazione Trump starebbe già valutando questa prossima mossa. Lo strumento potrebbe essere, come da tradizione per Trump, l’ordine esecutivo.
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la tua reazione?
Mi piace
0
Antipatico
0
Lo amo
0
Comico
0
Wow
0
Triste
0
Furioso
0
Commenti (0)