Insetti ispirano una nuova AI capace di vedere e ascoltare
Lo sapevate che un gruppo di ricercatori dell’Università di Liverpool, è riuscito a creare un modello di intelligenza artificiale che imita il modo in cui il cervello umano combina suoni e immagini? Ispirandosi al funzionamento sensoriale degli insetti, il progetto apre la strada a sistemi AI capaci di percepire il mondo con una naturalezza finora impossibile per le macchine. Alla base del modello c’è una funzione cerebrale scoperta originariamente negli insetti, poi adattata dallo psicologo Cesare Parise per elaborare segnali audiovisivi reali — come filmati e suoni — al posto dei dati astratti usati nei modelli precedenti.
Nella vita quotidiana il cervello umano sincronizza costantemente ciò che vediamo e sentiamo: guardando una persona parlare, ad esempio, unisce automaticamente il movimento delle labbra al suono della voce. È lo stesso meccanismo che spiega illusioni come l’effetto McGurk, quando l’audio e il labiale non coincidono ma creano una nuova percezione, o come la classica illusione del ventriloquo, in cui la voce sembra provenire dal pupazzo. Comprendere come avvenga questa sincronizzazione è da tempo una delle domande chiave delle neuroscienze.
I modelli computazionali usati finora non riuscivano però a gestire direttamente questi compiti, ma Parise ha spiegato che, pur essendo teoricamente validi, i modelli precedenti non erano in grado di lavorare con stimoli reali. Per superare il limite, ha costruito una rete di “rilevatori di correlazione” disposti su una griglia audiovisiva, in grado di riconoscere i legami tra suono e immagine nel tempo e nello spazio.
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la tua reazione?
Mi piace
0
Antipatico
0
Lo amo
0
Comico
0
Furioso
0
Triste
0
Wow
0




