Oltre l’errore: come l’industria sta addomesticando le allucinazioni dell’AI

L’OPINIONE
Oltre l’errore: come l’industria sta addomesticando le allucinazioni dell’AI
Le clamorose sviste dell’AI, dovute alla sua natura di strumento probabilistico, ne stanno frenando l’adozione in contesti dove la certezza dell’output non è negoziabile. Ma non sempre le allucinazioni sono un problema irrisolvibile. Chris Howard di Gartner spiega come l’ingegnerizzazione di sistemi con dati “AI-ready”, agenti AI collaborativi e reti neurali che rispettano le leggi della fisica (PINN) stia trasformando i modelli da “macchine di predizione” a strumenti di precisione affidabili per i processi critici.

Le “invenzioni” dell’intelligenza artificiale – tecnicamente note come allucinazioni – sono forse l’elemento che più di tutti rischia di frenare l’adozione su vasta scala dell’AI in contesti critici, come ad esempio quello industriale. A fare il punto è Chris Howard, Chief of Research di Gartner, nel corso di uno degli ultimi episodi del podcast ThinkCast.
Perché l’AI ha le allucinazioni
Il fenomeno delle allucinazioni nasce dalla natura stessa dei grandi modelli linguistici: sono “macchine di predizione”.
Quando un modello incontra un vuoto informativo nel processo di generazione di una risposta tenta di colmarlo basandosi sulla probabilità statistica derivata dai suoi dati di addestramento. Questo è il suo pregio e, talvolta, anche il suo difetto.
“Se il modello è stato addestrato prevalentemente su biografie di personaggi storici, penserà che un necrologio sia una componente standard di una biografia e ne creerà uno”, spiega Howard. Se in un contesto informale e personale una cosa del genere può anche strappare una risata, diventa un rischio inaccettabile quando in gioco ci sono decisioni strategiche, diagnosi mediche o analisi finanziarie.
Domare la probabilità con dati e logica
La risposta dell’industria a questa inaffidabilità si articola su strategie complementari che mirano a “costringere” il modello a operare all’interno di limiti ben definiti. La prima – e più diretta – è la restrizione del campo d’azione. Anziché attingere a moli immense e generiche di dati, i sistemi vengono addestrati o affinati su dataset specifici, controllati e di alta qualità, ciò che Gartner definisce “AI-ready data”. È un approccio che riduce lo spazio di manovra del modello, limitando la possibilità che inventi informazioni non pertinenti.
Un’evoluzione più sofisticata è rappresentata dai sistemi multi-agente. In questo paradigma, diversi agenti AI, ognuno con una propria base di conoscenza specializzata, collaborano per risolvere un problema complesso. Howard cita l’esempio delle commissioni mediche ospedaliere (tumor board), dove esperti di diverse discipline discutono casi clinici per definire il miglior percorso di cura. “Immaginate un sistema in cui agenti AI dibattono tra loro, partendo da prospettive diverse e usando il ragionamento per convergere su un output condiviso”, spiega. Questo “dibattito” interno tra macchine funge da meccanismo di validazione incrociata, aumentando drasticamente l’affidabilità del risultato finale, che potrebbe essere una diagnosi probabilistica o la richiesta di ulteriori analisi.
L’ingegneria incontra le reti neurali
Forse l’approccio più innovativo per il mondo industriale è quello delle reti neurali che incorporano le leggi fisiche (Physics-Informed Neural Networks o PINN). Questa tecnica integra equazioni differenziali, che descrivono fenomeni fisici, direttamente nel processo di addestramento del modello AI. In questo modo, l’output della rete neurale è vincolato a rispettare le leggi della fisica o i modelli matematici che governano un determinato processo.
Le applicazioni sono diverse: dalla determinazione del prezzo delle opzioni in finanza, al calcolo del tempo medio prima del guasto (mean time to failure) per un componente meccanico. “Qualsiasi output che non sia conforme alle equazioni viene escluso a priori”, chiarisce Howard. Si tratta di un passaggio fondamentale: l’AI non si limita più a correlare dati, ma impara a operare all’interno delle regole fondamentali di un dominio specifico, che sia la meccanica, la finanza o la fluidodinamica.
L’AI non è sempre la risposta
Secondo Howard l’AI generativa non è la risposta a tutti i problemi. Per farlo sottolinea la distinzione tra sistemi probabilistici (le reti neurali), il cui punto di forza è fornire opzioni e scenari plausibili, e sistemi deterministici come i knowledge graph o i motori a regole, progettati per dare risposte univoche e corrette al 100%. Se si vuole fare una semplice divisione, meglio usare una calcolatrice che ChatGPT. L’errore più comune invece è applicare l’AI a problemi per cui soluzioni di predictive analytics o automazione robotica dei processi (RPA) sarebbero sufficienti e più efficienti.
E poi c’è la questione dei dati. Senza dati puliti, ben governati e strutturati (e quindi “AI-ready”), nessuna di queste tecniche avanzate può funzionare. La qualità dell’input determina la qualità dell’output, un principio che diventa ancora più critico con l’aumentare della sofisticazione degli algoritmi.
Anche le allucinazioni possono insegnarci qualcosa
In chiusura Howard propone una visione suggestiva e controintuitiva: a volte, dice, un’allucinazione può essere utile.
“Forse un’allucinazione mostra una prospettiva diversa su un problema a cui non avevi pensato”, dice.
In contesti creativi o di design, un’informazione inaspettata e “sbagliata” potrebbe innescare un cambio di paradigma e portare a soluzioni innovative. Così l’allucinazione, da errore da correggere, diventa un fenomeno da comprendere, gestire e, in alcuni casi, persino valorizzare.
L'articolo Oltre l’errore: come l’industria sta addomesticando le allucinazioni dell’AI proviene da Innovation Post.
Qual è la tua reazione?






