Stop alla superintelligenza AI: l’allarme e l’appello di oltre 30.000 esperti (c’è anche Sam Altman)
l’appello degli esperti
Stop alla superintelligenza AI: l’allarme e l’appello di oltre 30.000 esperti (c’è anche Sam Altman)
Scienziati, accademici e leader del settore tra cui Sam Altman, Steve Wozniak e il Nobel Daron Acemoglu chiedono di fermare lo sviluppo dell’AI superintelligente finché non sarà dimostrata la sua sicurezza. Gli esperti definiscono questa tecnologia, capace di auto-miglioramento illimitato, come “potenzialmente ingestibile”, avvertendo che senza freni si va incontro a gravi rischi che vanno dalla perdita di libertà e diritti civili fino alla catastrofe esistenziale per l’umanità.

Vietare lo sviluppo della “superintelligenza” fino a quando non si avrà ampio consenso da parte della comunità scientifica e supporto dell’opinione pubblica: è questo l’appello firmato da oltre 30.000 esperti tra cui informatici, professori universitari e responsabili di aziende che si occupano proprio di sviluppo dell’AI, come OpenAI e Google Deepmind.
Nella dichiarazione, firmata e pubblicata attraverso il sito del Centre for AI Safety, i firmatari mettono in guardia sullo sviluppo non regolato della prossima frontiera dell’AI, la “superintelligenza” che potrebbe potenzialmente portare all’estinzione del genere umano.
Che cos’è la superintelligenza e perché preoccupa così tanto
Gli esperti mettono in guardia sui rischi della “superintelligenza”, un concetto teorico nell’ambito dell’AI che descrive un’intelligenza ipotetica e futura che supera drasticamente le capacità intellettuali di un qualsiasi essere umano in praticamente tutti i campi.
Diversamente dall’AI ristretta (narrow AI), che eccelle in compiti specifici (come il gioco degli scacchi o la guida autonoma), e dall’AI generale (AGI), che raggiunge un’intelligenza a livello umano, la superintelligenza non si limiterebbe a eguagliare o a imparare come gli umani, ma avrebbe la capacità di auto-migliorarsi ricorsivamente a una velocità vertiginosa, portando a una crescita esponenziale delle sue facoltà cognitive.
È proprio questa capacità di auto-miglioramento illimitato che, secondo gli esperti, la renderebbe imprevedibile e potenzialmente ingestibile, sollevando il rischio che i suoi obiettivi, se non perfettamente allineati con i valori umani, possano portare a conseguenze catastrofiche, inclusa la minaccia di estinzione.
Le preoccupazioni degli esperti
Tra i firmatari compaiono nomi d’eccellenza nel campo dell’informatica e dell’etica dell’AI, ma anche economisti e accademici di fama mondiale.
L’elenco include: il teologo e filosofo dell’AI Padre Paolo Benanti; l’informatico e cofondatore di Apple Steve Wozniak; Daron Acemoğlu, professore di economia al MIT e vincitore del Premio Nobel per l’economia 2024; Yuval Noah Harari, autore di diversi libri proprio sull’AI e professore all’Università Ebraica di Gerusalemme.
A questi si aggiungono i massimi esponenti delle aziende che sono in prima linea nello sviluppo dell’AI, come Sam Altman, amministratore delegato di OpenAI (creatrice di ChatGPT), Demis Hassabis, amministratore delegato di Google DeepMind, e Dario Amodei di Anthropic.
“Gli strumenti innovativi basati sull’intelligenza artificiale possono portare benefici senza precedenti in termini di salute e prosperità. Tuttavia, oltre agli strumenti, molte aziende leader nel settore dell’intelligenza artificiale hanno dichiarato l’obiettivo di sviluppare nei prossimi dieci anni una superintelligenza in grado di superare significativamente le capacità di tutti gli esseri umani in quasi tutte le attività cognitive”, si legge nello statement.
Senza controlli o regolazione della direzione che prenderà questo sviluppo, avvertono gli esperti, si va incontro a seri rischi per i diritti e le libertà dei cittadini, ma anche per l’economia e la sicurezza: dall’obsolescenza economica e dalla perdita di potere degli esseri umani, alla perdita di libertà, diritti civili, dignità e controllo, fino ai rischi per la sicurezza nazionale e persino alla potenziale estinzione dell’umanità.
L’appello per fermare lo sviluppo della superintelligenza AI senza freni
I firmatari chiedono un divieto sullo sviluppo della superintelligenza, che non potrà essere revocato prima che vi sia:
- ampio consenso scientifico sul fatto che sarà realizzato in modo sicuro e controllabile
- un forte sostegno da parte dell’opinione pubblica
Supporto che al momento manca, come dimostrano i risultati di un sondaggio pubblico condotto negli Stati Uniti, che ha rivelato che solo il 5% dei cittadini è soddisfatto dello status quo e non ritiene sia necessario regolamentare lo sviluppo dell’AI.
Il 64% ritiene che la superintelligenza non dovrebbe essere sviluppata fino a quando non sia dimostrato che è controllabile o sicura o ritiene che non dovrebbe essere sviluppata affatto e il 73% chiede una maggiore regolamentazione sull’intelligenza artificiale avanzata.
La dichiarazione è accompagnata da diversi commenti sia dei firmatari che di figure di spicco che non hanno sottoscritto l’appello ma che in passato hanno messo in guardia sui potenziali rischi di uno sviluppo incontrollato.
“La superintelligenza rischierebbe di distruggere il sistema operativo stesso della civiltà umana ed è del tutto superflua. Se invece ci concentriamo sulla creazione di strumenti di AI controllabili per aiutare le persone reali di oggi, potremo realizzare in modo molto più affidabile e sicuro gli incredibili vantaggi dell’AI”, commenta Yuval Noah Harari.
L'articolo Stop alla superintelligenza AI: l’allarme e l’appello di oltre 30.000 esperti (c’è anche Sam Altman) proviene da Innovation Post.
Qual è la tua reazione?
Mi piace
0
Antipatico
0
Lo amo
0
Comico
0
Furioso
0
Triste
0
Wow
0




