L’intelligenza artificiale minaccia il mestiere di doppiatore

«In principio era il Verbo», così inizia il Vangelo secondo Giovanni, riprendendo la Genesi e la parola creatrice all’origine del mondo. Il Verbo, qui, è quello di un Dio ubiquo e onnisciente. Ubiqua e onnisciente è, oggi, l’intelligenza artificiale. E il fatto che possa parlare segna allo stesso modo l’inizio di un mondo nuovo, per lo meno culturale. L’AI parla, e lo fa con tante voci, tutte assolutamente credibili. Un bel problema, tuttavia, per chi ha fatto della voce il proprio strumento di lavoro. In primis, i doppiatori.
«Sono consapevole che il mestiere che faccio sparirà, prima o poi. Ho già perso un buon trenta per cento dei miei lavori», racconta un attore e doppiatore la cui identità rimarrà anonima per ragioni di tutela professionale. Da più di un decennio nel settore, un anno fa aveva registrato quattro self-tape di presentazione: «Buongiorno, mi chiamo X, sono un attore e doppiatore (…)». Uno in italiano, gli altri tre in altre lingue: francese, tedesco, spagnolo. Pronuncia perfetta, un vero madrelingua in ogni video. Peccato che l’unico autentico fosse quello in italiano: gli altri, dalla traduzione al clonaggio vocale, passando per il lip-sync, erano stati tutti interamente generati dall’intelligenza artificiale.
«Da allora la tecnologia è migliorata molto. E anzi, ogni settimana è un’evoluzione esponenziale. I software si sviluppano al ritmo di aggiornamenti mensili. Tempo fa ne veniva pubblicato uno ogni anno e mezzo», prosegue, indicando nella competizione fra America e Cina la ragione di questa corsa all’AI, nella quale ogni settimana si assiste a miglioramenti «del duecento per cento». Un’iperbole, forse, ma che rende l’idea della rapidità dei progressi.
«In ambito pubblicitario, spesso l’ordine è: “Risparmiate, tagliate, fate tutto con l’intelligenza artificiale», e quindi invece di ricorrere a un doppiatore – che ha alle spalle degli studi, che lavora da anni nel campo della comunicazione o della recitazione, che sa parlare in dizione – si utilizza la voce dell’AI, continua l’esperto. Che poi racconta di aver parlato con agenzie di comunicazione, dove si investe più sulla quantità dei contenuti che sulla loro qualità: «La logica dei social ha cambiato le cose. Ormai solo le aziende più grandi e solide ricorrono ancora ai doppiatori».
Ma gli algoritmi quali voci “masticano”? Quelle che sono date loro in pasto. «Nel nostro ambito, a volte arrivano proposte di acquisizione della voce. Cinquantamila euro, magari, per cedere il proprio timbro, impiegato poi in un modello conversazionale. Nel concreto, significa trascorrere più di cento ore a parlare per addestrare la macchina», prosegue. Una volta fatto, tuttavia, si cedono una volta per tutte i diritti d’autore, e si corre il rischio di aver sottoscritto un patto con diavolo. Uno fra i pericoli più grandi, infatti, è quello di perdere il controllo sulla propria voce.
«Chi la acquista solitamente non sono grandi realtà come Microsoft, ma piccole aziende che si presentano come start-up. È capitato che la voce di colleghi venisse comprata per essere inserita in software specifici, come quelli per i navigatori satellitari, e che poi le start-up in questione venissero rilevate da aziende più grosse». A quel punto, tuttavia, la nuova compagnia acquirente ha a disposizione la tua voce, e viene cambiata la sua destinazione d’uso, utilizzandola magari in pubblicità alle quali non si era data alcuna autorizzazione.
«Immagina che un bel mattino ti svegli, prendi il telefono e ti imbatti in uno spot di Temu che dice: “Affrettati! Questa è una grande occasione”. E con sgomento capisci che quella è la tua voce. Ho amici che sono ancora in causa, per queste vicende», racconta il doppiatore.
Ma oltre al rapporto uno-a-uno fra professionisti della voce e start-up, esiste oggi una piattaforma, Eleven Labs, che è aperta a tutti, dove tutti cioè possono usare modelli vocali AI o contribuire personalmente alla vasta libreria di voci (più di cinquemila) presente nel database dell’intelligenza artificiale che vi sta alla base. Si trovano le voci registrate di Lily, di Chris e di Laura, e a fianco le loro versioni clonate, in cui l’AI recita altre frasi usando il loro timbro. E le due, originale e copia, sono assolutamente indistinguibili.
«Al momento, Eleven Labs è il sito più utilizzato per fare speakeraggi, voice-over, per usare voci già campionate o clonarne di nuove. La cosa incredibile è che l’intelligenza artificiale riesce a rendere ogni sfumatura di emozione, a replicare esattamente quello che fanno gli attori», spiega il doppiatore. E infatti, se si naviga sulla piattaforma di Eleven Labs, ci si imbatte, fra i vari esempi, in una voce AI-generated che bisbiglia con tono ovattato: «Sapevi che le voci AI possono sussurrare?», seguita da altri timbri di mille colori diversi. Alcune voci urlate, altre serie e scandite da telegiornale, altre ancora più allegre e squillanti. Se almeno l’espressività restava una prerogativa umana, ora non lo è più. «Questi servizi si stanno moltiplicando. La Cina ne ha presentato uno recentemente che funziona altrettanto bene».
L’intelligenza artificiale, per altro, si è ormai sganciata dalla base reale, analogica: «Le voci possono essere sintetiche, nel senso che il timbro non è legato a nessuna persona specifica. Magari è una mescolanza di quattro, dieci, cento voci», e la funzione Voice Design V3 che si trova sulla piattaforma Eleven Labs ne è la dimostrazione. Basta descrivere a parole scritte la voce desiderata – specificandone magari anche età, genere, tono, accento, velocità, emozioni e stile – che la funzione text to voice dà vita al timbro desiderato.
Questo è presente anche su altre realtà AI, come ChatGPT Pro: «Se chiedi di parlarti con la voce di un mafioso, come quella di don Vito Corleone ne Il padrino, ad esempio, la fa. Basta dargli un punto di vista, e il prompt conferisce alla voce neutra la sfumatura voluta. Insomma, puoi fare quello che vuoi», continua il doppiatore. Tuttavia, è proprio nel gap tra descrizione testuale e resa, che l’uomo può ancora “battere” la macchina: «L’affidabilità è sicuramente diversa, con l’AI spesso ci si affida un po’ al caso, e spesso non si ottiene esattamente quello che si voleva. Ma forse è soltanto questione di tempo».
In Italia, per ora, l’uso dell’intelligenza artificiale nel mondo del doppiaggio è in espansione, ma il suo utilizzo viene limitato dall’AI Act, la normativa europea che ne disciplina lo sviluppo e l’impiego all’interno dell’Unione Europea. Innanzitutto, la legge impone che i sistemi AI che generano audio, immagini, video o testi sintetici identifichino chiaramente queste uscite come “artificiali”: questo aiuta a far capire al pubblico se una voce è sintetica o meno, un primo livello di tutela contro l’uso “abusivo” della voce doppiata o replicata senza consenso. Inoltre, i doppiatori continuano ad avere il diritto esclusivo di autorizzare la fissazione/performance della loro voce. «Al momento, per fortuna, in Italia è una cosa che non viene accettata molto, culturalmente».
Tuttavia, non esiste ancora una regolamentazione specifica che disciplini dettagliatamente l’uso delle voci per doppiaggio tramite AI, con clausole obbligatorie su compensi, licenze, limiti di uso, etc. Ci sono state numerose richieste da parte dei doppiatori e delle loro associazioni, ma non tutto è già stato normato, come la protezione dal training non autorizzato. I doppiatori, in altre parole, vogliono che le loro registrazioni non vengano usate per “allenare” i modelli di intelligenza artificiale, se non previo consenso e relativa remunerazione.
Nella catena di produzione multimediale, a ogni modo, molte figure sono già state interamente sostituite, «soprattutto quelle che lavoravano nella localizzazione», ossia nell’adattamento dei prodotti audiovisivi ai singoli Paesi in fase di distribuzione. «Nei film, nei documentari e nei reality i traduttori non ci sono più. Anche la sottotitolazione è ormai interamente fatta dall’intelligenza artificiale». E, con video generator all’avanguardia come Veo 3 o Kling (sia image to video che text to video), anche il mondo attoriale stesso è a rischio: con modelli sufficientemente avanzati, basta digitare “generami la sequenza di un uomo che corre per le strade di Manhattan” che l’intelligenza artificiale fa il resto.
«Sono estremamente sicuro che rimarremo tutti disoccupati. Ma resto curioso: siamo di fronte a una nuova rivoluzione industriale, e questa volta la quantità di lavoratori che potrebbero essere sostituiti da competitor più efficienti, nella fusione tra AI e robotica, è veramente grande». Per fortuna, sottolinea il doppiatore, esistono anche realtà – come la Adap (Associazione doppiatori attori pubblicitari) e UVA (United Voice Artists) – che tutelano i diritti dei doppiatori e si battono tanto sia per l’applicazione che per l’estensione dell’AI Act, dando voce (legale) a chi dà la voce.
L'articolo L’intelligenza artificiale minaccia il mestiere di doppiatore proviene da Linkiesta.it.
Qual è la tua reazione?






