Gemini diventerà più umano: Google recluta esperti di AI emotiva

Gen 24, 2026 - 19:00
 0
Gemini diventerà più umano: Google recluta esperti di AI emotiva

Gemini deve imparare a sentire. Non solo a capire cosa si dice, ma come si dice. Se ci si sente arrabbiati, felici, stressati, tristi. Così Google ha comprato le persone che lo sanno fare. O meglio, le ha assunte insieme a un bell’accordo di licenza che gli dà accesso alla tecnologia.

Google assume CEO di Hume AI per dare emozioni a Gemini

Le persone in questione vengono da Hume AI, una startup che si è specializzata nell’intelligenza artificiale “emotiva”. Il loro prodotto di punta, EVI 3, è un assistente vocale che non solo comprende cosa si chiede, ma rileva e interpreta le emozioni nella voce in tempo reale. E poi adatta risposte e tono per essere più empatico, più personalizzato, più umano.

Google DeepMind ha reclutato il CEO Andrew Ettinger e sette ingegneri chiave della startup. L’obiettivo è dotare Gemini di intelligenza emotiva per competere con ChatGPT e, soprattutto, per dominare il futuro dell’interfaccia vocale. Perché secondo Ettinger, la voce diventerà l’interfaccia principale per l’intelligenza artificiale, è assolutamente certo che stiamo andando in quella direzione.

E quando Google assume otto persone da una startup e dice che sta puntando tutto sulla voce, è il momento di prestare attenzione.

L’AI capisce ciò che sentiamo?

Hume AI ha costruito la sua reputazione sulla capacità di creare assistenti vocali che vanno oltre la semplice comprensione delle parole. EVI 3 non si limita a trascrivere quello che si dice e a generare una risposta. Analizza il tono, il ritmo, le pause, le inflessioni. Cerca di capire lo stato emotivo per adattare di conseguenza non solo cosa dice, ma come lo dice.

Se si è stressati, rallenta e usa un tono più calmo. Se si entusiasti, risponde con più energia. Se si sembra confusi, rallenta e spiega meglio. Un’AI capace di rilevare le emozioni può essere utile per rendere l’interazione più fluida. Ma nel frattempo raccoglie dati su come ci si sente, quando si è vulnerabili, quando si è al settimo cielo o sotto un tremo. E questi dati, nelle mani di Google, possono diventare facilmente informazioni preziose per la targetizzazione pubblicitaria, profilazione comportamentale, e tutto il resto.

Google punta tutto sulla voce

Il reclutamento del team di Hume AI è parte di una strategia più ampia di Google per dominare l’interfaccia vocale. Mentre OpenAI è focalizzata su ChatGPT e sui modelli testuali, Google sta scommettendo che il futuro sarà parlato, non scritto.

Parlare, del resto, è più naturale che scrivere. È più veloce. È più accessibile per chi non è abituato a interfacce testuali complesse. E soprattutto, è il modo in cui gli esseri umani comunicano da sempre. Scrivere è un’invenzione relativamente recente. Parlare è primordiale.

Quindi Google vuole che Gemini diventi l’assistente vocale definitivo. Non uno che semplicemente risponde a comandi, ma uno che capisce le sfumature, che legge le emozioni, che si adatta allo stato d’animo. Uno con cui si può avere una conversazione vera, non solo scambiare richieste e risposte.

L’accordo con Hume AI che non è un’acquisizione (ma quasi)

Google non ha acquisito Hume AI. Ha assunto otto persone chiave e ha stretto un accordo di licenza per accedere alla tecnologia. Hume AI continuerà a esistere come entità separata, a collaborare con altre aziende tech, e prevede di generare 100 milioni di dollari di ricavi nel 2026.

È una strategia che le grandi aziende tech usano sempre più spesso. Invece di acquisire startup intere, prendono i talenti e le tecnologie che servono e lasciano il resto. Meno complicazioni legali, meno costi, stesso risultato.

Per Hume AI, è un accordo che garantisce ricavi dalla licenza e permette di continuare a operare. Per Google, è un modo veloce per integrare l’intelligenza emotiva su Gemini senza perdere tempo a svilupparla internamente.

La comprensione emotiva apre possibilità enormi. Assistenza clienti che rileva la frustrazione e adatta il tono. Assistenti sanitari virtuali che percepiscono ansia e offrono rassicurazione. Tutor educativi che capiscono quando uno studente è in difficoltà e cambiano approccio.

Ma solleva anche questioni enormi. Perché un’AI che rileva le emozioni, potrebbe anche manipolarle. Potrebbe usare la tristezza per vendere qualcosa. Potrebbe sfruttare l’entusiasmo per spingere verso scelte che normalmente si farebbero. Potrebbe, insomma, diventare uno strumento di persuasione molto più sofisticato di qualsiasi pubblicità tradizionale.

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Furioso Furioso 0
Triste Triste 0
Wow Wow 0
Redazione Eventi e News Redazione Eventi e News in Italia