Preparazione al decollo: in che modo l'intelligenza artificiale potenzia i motori di traduzione

David Pooley 27 set 2023 Tempo di lettura: 5 minuti
Da un po' di tempo, utilizziamo i motori di traduzione per fornire la migliore traduzione possibile per un determinato testo. Con l'avvento dell'intelligenza artificiale, possiamo portare questo servizio a un livello superiore.

Da un po' di tempo, utilizziamo i motori di traduzione per fornire la migliore traduzione possibile per un determinato testo. Con l'avvento dell'intelligenza artificiale, possiamo portare questo servizio a un livello superiore. Anche se l'intelligenza artificiale generativa non è perfettamente adatta alla traduzione automatica, con un pizzico di magia ottenuta dalle nostre risorse linguistiche possiamo utilizzarla per generare traduzioni che rispettino lo stile, il tono, la terminologia e tutto quello che serve per un determinato progetto. Continuiamo a esplorare ulteriormente questi aspetti con una lezione di storia, un video animato e una promessa di traduzioni migliori.


Breve storia dei motori di traduzione

Mentre eravamo impegnati a creare la nostra nuova piattaforma cloud, abbiamo deciso di adottare un nuovo approccio all'organizzazione e all'uso delle risorse linguistiche. Tradizionalmente, ogni risorsa linguistica veniva trattata separatamente e vi era una chiara divisione dei compiti per la memoria di traduzione, la terminologia e la traduzione automatica. Il nostro obiettivo era riunire queste risorse per creare un servizio sinergico che fornisse la migliore corrispondenza possibile in base a tutte le informazioni a disposizione. Sono lontani i giorni in cui, dopo aver applicato una memoria di traduzione, si recuperava il testo non tradotto con la traduzione automatica e quindi si forniva ai traduttori la terminologia per il post-editing del testo tradotto. Al contrario, la nostra missione era massimizzare l'efficacia delle risorse per poter creare la "migliore corrispondenza possibile". È così che è nato il motore di traduzione. 

Alcuni di voi avranno visto il film Galline in fuga di Aardman Animations. Ritraeva una macchina raccapricciante che trasformava le galline in pasticci. Il modo in cui le galline sarebbero diventate pasticci non veniva visualizzato o discusso: era una macchina misteriosa e minacciosa, che allo stesso tempo rappresentava un trionfo tecnologico. La Signora Tweedy aveva inventato la frase "Le galline vanno dentro, i pasticci vengono fuori". Cosa c'entra questo con la traduzione, vi chiederete? Ho sempre pensato che un motore di traduzione fosse una macchina altrettanto misteriosa (ma meno raccapricciante o minacciosa, spero). Al posto delle galline, gli davamo in pasto il testo; al posto dei pasticci, uscivano fuori le traduzioni. "Il testo va dentro, le traduzioni vengono fuori". Non era necessario sapere come funzionasse, ma potevate stare certi che le risorse linguistiche venivano spremute fino a ottenere ogni bit di informazione utilizzabile, con la migliore traduzione possibile come risultato. Il diagramma in basso mostra questo approccio di tipo "scatola misteriosa".

Generative AI

Alcuni dei trucchi che utilizziamo seguono un approccio molto simile. Includono alcune tecnologie di intelligenza artificiale tradizionale, tra cui: 

  • Corrispondenze frammento 
  • Correzione delle corrispondenze parziali 
  • Integrazione della terminologia applicabile nella traduzione automatica 

Fin qui tutto bene, penserete. Buona idea. Ben eseguita. Strette di mano e pacche sulle spalle. Poi arriva il 2023 e dice "Ehi, indovinate un po'? L'intelligenza artificiale è qui!" I portavoce della rivoluzione dell'intelligenza artificiale sono stati quei bellissimi modelli di chat generativa a cui possiamo chiedere di scrivere poesie, creare un comunicato stampa o comporre un titolo accattivante per LinkedIn. OpenAI sembrava aver raggiunto la pole position su tutti, ma poi sono arrivati degli altri modelli. Google, AWS, Meta e altri hanno già raccolto la sfida. Potete inoltre stare certi che altri operatori appariranno all'orizzonte: si sente già il rombo dei motori. L'intelligenza artificiale farà parte delle nostre vite, quindi cosa possiamo fare?


È il momento di aggiornarsi

L'affermazione dell'intelligenza artificiale ci ha offerto l'opportunità di mettere a punto e potenziare i nostri motori di traduzione. Se prima eravamo quasi al limite di quello che potevamo spremere dalle risorse linguistiche, ora possiamo fare molto di più. Questi chatbot utilizzano più o meno la stessa tecnologia. Vengono analizzate ed elaborate enormi quantità di dati linguistici per creare un elemento noto come LLM. [Nota a margine per i nerd linguistici: LLM non è un acronimo ma un inizialismo. Gli acronimi vengono pronunciati come una singola parola: NATO, SCUBA, ONU e CAP. Gli inizialismi vengono pronunciati lettera per lettera, come DNA, UE, WWF e OGM. MPEG e JPEG sono invece delle anomalie.] Torniamo al sistema LLM: alcuni di voi si chiederanno cosa sia. La sigla sta per Large Language Model e, per il nostro settore, quella parola al centro è molto, MOLTO interessante. I sistemi LLM consentiranno ai nostri motori di traduzione di liberarsi dal giogo e di sfruttare nuove e potenti funzionalità che possiamo integrare direttamente al cuore delle nostre tecnologie di traduzione. Alcuni aspetti in cui un sistema LLM può essere utile: 

  • La traduzione di testo da una lingua all'altra, corredata di informazioni e indicazioni contestuali. 
  • Post-editing delle traduzioni create tramite traduzione automatica neurale. 
  • Valutazione della qualità del testo tradotto e suggerimenti per il miglioramento. 
  • Riscrittura del testo di origine per seguire lo stile e la terminologia dell'azienda. 

La correzione delle traduzioni automatiche o umane seguirà presto ma, al momento, stiamo focalizzando il nostro lavoro sul primo punto nell'elenco. Abbiamo già rilasciato un'app OpenAI Translator che potete utilizzare in Trados Studio. L'app utilizza un sistema LLM per trasformare, ottimizzare, analizzare e suggerire traduzioni alternative per il testo nei documenti; inoltre, supporta i messaggi. Non approfondirò troppo questo aspetto, ma vale la pena dare un'occhiata alla pagina Wiki della RWS Community per capire come è possibile manipolare il prompt utilizzato per ottenere stili, toni e lunghezze diversi. Quello che manca, tuttavia, è l'accesso a tutte le risorse linguistiche racchiuse in un motore di traduzione. Questo è l'ingrediente segreto.

Grazie all'intelligenza artificiale, i nostri motori di traduzione possono ora produrre traduzioni migliori che mai. Per tradurre una frase da una lingua a un'altra, possiamo fornire al sistema LLM informazioni su: 

  • Come sono stati tradotti altri segmenti nello stesso documento. 
  • Come sono stati tradotti segmenti simili in passato (riutilizzo della tecnologia delle corrispondenze parziali). 
  • Quali termini sono stati identificati nel testo di origine e come devono essere tradotti. 
  • Lo stile di traduzione richiesto (formale, informale, amichevole, professionale, ecc.) 
  • Altre impostazioni come la lunghezza massima o il linguaggio neutro dal punto di vista del genere.

Con tutte queste informazioni a portata di mano, il sistema LLM può fornirci esattamente ciò di cui abbiamo bisogno. Inoltre, dato il flusso di lavoro tipico di un progetto di traduzione, possiamo "formare" l'LLM e migliorarlo. Reinserendo le traduzioni finali verificate, il modello imparerà a fornire suggerimenti sempre migliori nel tempo. Fantastico. Trasferiamo i vostri contenuti a un LLM disponibile al pubblico e otteniamo traduzioni di alta qualità. Tutti felici? No? L'elemento "pubblicamente disponibile" desta preoccupazioni? Non temete: sono sicuro che le belle persone di una qualsiasi delle aziende che ho menzionato in precedenza non sbandiereranno la vostra proprietà intellettuale per tutto il Web. Non ne siete ancora convinti? OK. Allora, come possiamo veicolare tutto questo in un LLM sicuro e con hosting privato? In questo modo potete essere certi che i vostri dati rimangano solo vostri. Il diagramma in basso mostra il nostro nuovo motore di traduzione. Nessuna gallina si farà male.

Generative AI

Implementazione

La nostra implementazione iniziale prende la forma di una nuova attività che può essere inclusa in un flusso di lavoro personalizzato per i clienti Trados che hanno accesso al nostro potente editor dei flussi di lavoro. In questo modo gli utenti avranno la possibilità di sperimentare le possibilità offerte dal nostro nuovo approccio. Man mano che il progetto progredisce, lo includeremo nelle funzionalità principali per renderlo accessibile a tutti. Tenete gli occhi e le orecchie bene aperti per ulteriori notizie nella nostra community e nei nostri canali dei social media.

Pianificare una demo
David Pooley
Autore

David Pooley

Senior Product Manager

David è Senior Product Manager in RWS, dove vanta oltre vent'anni di esperienza nello sviluppo di tecnologie linguistiche e nella gestione dei prodotti.


Il viaggio di David in RWS è iniziato nel 1997, quando è entrato a far parte di SDL come sviluppatore di software per lavorare su uno dei primi strumenti di memoria di traduzione e per esplorare le possibilità offerte dalla creazione di nuove applicazioni di tecnologia linguistica. In questo periodo, ha ricoperto diversi ruoli ed è attualmente responsabile dei prodotti Language Cloud e TMS. Per Trados Enterprise, si è specializzato in determinazione dei costi, emissioni di preventivi, qualità, sicurezza, API aperta e uso dell'intelligenza artificiale. 


In precedenza, David ha contribuito a standard di localizzazione come TMX e SRX, e continua a essere appassionato di tecnologia linguistica.

Info e articoli di David Pooley