Le cuffie che filtrano il caos: lAI riconosce chi ti sta parlando
In ambienti affollati, seguire una conversazione può diventare un esercizio di concentrazione continua. Il brusio di fondo, le voci sovrapposte e i rumori improvvisi mettono alla prova anche chi non ha difficoltà uditive, mentre per chi convive con problemi di ascolto la situazione può trasformarsi in un ostacolo quotidiano. Proprio da questa esigenza nasce il nuovo prototipo sviluppato dall’Università di Washington: un paio di cuffie che utilizza l’AI per distinguere i partecipanti a una conversazione e mettere in secondo piano tutto il resto.
A differenza dei dispositivi che richiedono di selezionare manualmente una voce da seguire, questo sistema mette in campo un approccio più naturale. Parte dal modo in cui parliamo: durante un dialogo si crea spontaneamente un ritmo di turni tra chi parla e chi ascolta. I ricercatori hanno deciso di sfruttare proprio questo schema, addestrando un modello a riconoscerlo senza sensori invasivi né indizi visivi. Non serve guardare l’interlocutore, né scegliere un volume “a bolla” attorno a sé: bastano pochi secondi di conversazione perché le cuffie capiscano quali voci fanno parte del dialogo e quali invece appartengono al rumore di contorno.
Il sistema entra in funzione nel momento in cui l’utente inizia a parlare. Il primo modello analizza i tempi degli interventi per capire chi sta dialogando con chi, distinguendo le voci che seguono il ritmo naturale del botta e risposta. Il secondo modello, invece, ripulisce l’audio in tempo reale, restituendo all’utente una voce più chiara e comprensibile. Nel prototipo attuale è possibile gestire conversazioni fino a cinque persone, compreso chi indossa le cuffie, senza lag percepibili.
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la tua reazione?
Mi piace
0
Antipatico
0
Lo amo
0
Comico
0
Furioso
0
Triste
0
Wow
0




