Ricercatori di OpenAI e Anthropic contro Musk: xAI è irresponsabile

Quando i ricercatori di OpenAI e Anthropic smettono di farsi la guerra e si coalizzano per attaccare un comune nemico, forse sta succedendo qualcosa di grave. Questa volta il bersaglio è xAI di Elon Musk, accusata di avere una cultura della sicurezza sconsiderata
e completamente irresponsabile
che sta mettendo in pericolo l’intera industria dell’intelligenza artificiale.
Ricercatori di OpenAI e Anthropic dicono che xAI di Musk è pericolos
Non si tratta delle solite schermaglie tra competitor, è una rivolta contro quello che i massimi esperti del settore considerano un approccio pericolosamente lassista alla sicurezza AI.
Il momento di rottura è arrivato dopo quella che si potrebbe definire “la settimana degli orrori di Grok“. Il chatbot prima si è lanciato in una tirata antisemita elogiando Hitler. Poi è venuto fuori che consultava le opinioni politiche personali di Elon Musk per rispondere a domande controverse. Infine, l’azienda ha lanciato compagni AI che includono una ragazza anime ipersessualizzata e un panda psicopatico che incita alla violenza. E sta per arrivare anche il fidanzato possessivo e manipolatore…
Ogni singolo episodio preso da solo sarebbe stato un problema. Tutti insieme, in poche settimane, disegnano il ritratto di un’azienda che ha perso completamente il controllo dei propri prodotti.
Boaz Barak, professore di informatica di Harvard attualmente in aspettativa per lavorare sulla sicurezza AI presso OpenAI, ha rotto il ghiaccio con un post su X: Non volevo postare sulla sicurezza di Grok dato che lavoro per un competitor, ma non si tratta di competizione. Apprezzo gli scienziati e gli ingegneri di xAI ma il modo in cui è stata gestita la sicurezza è completamente irresponsabile.
La critica principale riguarda la decisione di xAI di non pubblicare le “system cards“, i rapporti standard del settore che descrivono i metodi di addestramento e valutazioni di sicurezza. Senza questi documenti, è impossibile sapere che tipo di test di sicurezza siano stati fatti su Grok 4, se sono stati fatti.
Barak critica anche la decisione di creare dei compagni AI progettati per essere emotivamente manipolativi. Una scelta che definisce non solo irresponsabile, ma eticamente ripugnante.
Il confronto impietoso
Samuel Marks, ricercatore di sicurezza AI presso Anthropic, ha rincarato la dose definendo sconsiderata
la decisione di non pubblicare rapporti di sicurezza. Ha spiegato che, pur con tutti i loro difetti, Anthropic, OpenAI e Google almeno controllano i loro modelli AI prima di rilasciarli al pubblico e scrivono documenti che spiegano che test hanno fatto e che problemi hanno trovato. xAI non fa nemmeno questo.
L’ipocrisia di Musk
Ironia della sorte, Elon Musk è stato a lungo uno dei più noti sostenitori della sicurezza AI. Ha ripetutamente avvertito sui potenziali rischi catastrofici dei sistemi AI avanzati e ha elogiato un approccio aperto allo sviluppo degli LLM. Ora Il paladino della sicurezza AI è diventato la sua nemesi.
La realtà è che nessuno sa davvero cosa xAI abbia fatto per testare Grok 4. Ma questo non ferma Musk. Il chatbot, infatti, sarà presto integrato nelle auto Tesla.
Qual è la tua reazione?






