Guide

La traduzione in tempo reale sbarca su smartphone, occhiali e meeting. Voce e identità salve (quasi)

La novità è la capacità di tradurre mantenendo il timbro e l’identità vocale dell’utente (voice mimicry). Apple e Meta puntano invece sulla traduzione “dal vivo” tramite auricolari (AirPods) e occhiali smart (Ray-Ban).

di Alesandro Longo

3' di lettura

English Version

3' di lettura

English Version

Una chiamata di lavoro o una video conferenza in lingua straniera; un viaggio all’estero: sono esperienze più facili adesso, per chi non conosce bene l’idioma dell’interlocutore. Grazie alle traduzioni in tempo reale fatte dall’intelligenza artificiale. Già: si può dire che l’AI ha più o meno abbattuto questa barriera linguistica, anche se c’è strada da fare ancora per la perfezione. E la buona notizia è che l’italiano (traduzioni a/dalla nostra lingua) è ampiamente supportato.

È significativo che tutte le big tech siano in campo, ormai: Meta, Apple, Google, Samsung, Microsoft. Vedi Google, che con il nuovo Pixel 10 ha introdotto “Voice Translate”: una funzione che traduce le telefonate tra l’inglese e dieci altre lingue mantenendo la voce originale dell’utente (il timbro e in teoria anche le espressioni o emozioni, anche se su questo è ancora fallace). L’operazione avviene “on device”, grazie al chip Tensor G5 e ai modelli AI Gemini Nano, quindi con meno latenza e proteggendo la privacy. In pratica, l’interlocutore sente la voce del chiamante, ma nella propria lingua.

Loading...

È un passo tecnologico importante: la voce “mimica” preserva (più o meno) l’identità comunicativa. La stessa tecnologia è estesa Google Meet, per videoconferenze di lavoro.

Anche Apple si muove nella stessa direzione, ma con un approccio diverso: centrato sulle esperienze “dal vivo”. Con l’ultima versione di iOS, la funzione Live Translation arriva sugli auricolari AirPods, qui permettendo di tradurre in tempo reale conversazioni in persona. L’utente può attivare la modalità con un gesto o con Siri, e ascoltare la traduzione direttamente negli auricolari mentre parla con qualcuno che usa un’altra lingua. Il tutto, ancora una volta, con computazione locale per tutelare la privacy. È un esempio di come Apple punti a rendere invisibile la tecnologia, trasformando una funzione complessa in un gesto naturale.

Un’altra visione di futuro ancora ce l’ha Meta, che ha portato la traduzione vocale fuori dallo smartphone, dentro gli occhiali Ray-Ban (di seconda generazione). Qui l’assistente AI integrato è in grado di tradurre ciò che l’utente ascolta o dice, restituendo la traduzione tramite gli altoparlanti incorporati. Meta crede insomma in un orizzonte in cui la realtà aumentata ci libererà dagli schermi; servirà non solo a mostrare informazioni visive, ma anche a mediare linguisticamente il mondo reale. Google sta già seguendo la stessa strada con i suoi progetti per occhiali basati su Android XR.

Forse però la maggior parte degli italiani potrà saggiare il bello (e il brutto: i suoi errori) della traduzione “live” grazie a Samsung e ai suoi molto popolari smartphone Galaxy. La funzione Live Translate è integrata direttamente nell’app telefono dei Galaxy (dagli S24, con un update del sistema che però si può applicare anche su alcuni S22 e S23). La traduzione simultanea di una chiamata funziona anche se l’interlocutore non ha un dispositivo Samsung, e in alcune lingue può operare offline. La funzione è parte del pacchetto Galaxy AI, che comprende anche strumenti di riepilogo, scrittura e assistenza contestuale. I test indipendenti mostrano però una qualità ancora non ottimale.

Per i clienti business, la partita è sulle piattaforme di collaborazione. Google e Microsoft stanno introducendo nei loro ambienti — Meet e Teams — la traduzione simultanea con voce sintetica. In Teams, l’“interpreter agent” sperimentato internamente da Microsoft traduce i meeting mantenendo il ritmo e le pause originali, mentre Google prevede l’integrazione con i pacchetti Workspace AI per traduzioni vocali multilingue (ora è solo in beta e solo per inglese-spagnolo). È la versione professionale di una tecnologia che promette di ridurre drasticamente i costi e i tempi della comunicazione globale. Potrebbe fungere da acceleratore del business internazionale (dazi permettendo, ovviamente: la politica a volte ha un peso maggiore sulla globalizzazione rispetto alla tecnologia).

Al di là delle differenze di approccio, le grandi piattaforme hanno un obiettivo comune: abbattere le barriere linguistiche senza sacrificare (per quanto possibile) l’identità della voce umana. Per riuscirci, devono superare problemi ancora in parte irrisolti: latenza della traduzione, segmentazione del parlato, errori nel comprendere le sfumature semantiche e a volte veri e propri svarioni, magari favoriti da accenti poco comuni, problemi di dizione o rumore ambientale. La vera fedeltà espressiva della voce sintetizzata è un ulteriore traguardo da raggiungere.

Al momento, per un discorso importante (di business o diplomatico, politico) i traduttori o una buona conoscenza personale della lingua straniera sono ancora insostituibili.

Ma la direzione è chiara. L’intelligenza artificiale sta imparando a parlare come noi e per noi. Con impatti su persone, relazioni e mercati ancora tutti da comprendere

Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti