Tutti pronti per l’interpretariato da remoto? Breve guida pratica per utenti e interpreti (parte 3)

Interpretariato da remoto 3

Dopo aver definito le modalità di interpretariato da remoto e aver dato alcuni suggerimenti agli organizzatori e ai partecipanti degli eventi virtuali, passiamo ora all’ultima parte di questa breve guida dedicata a coloro che sono passati dagli eventi dal vivo agli eventi online. In questo articolo offriamo alcuni spunti e suggerimenti pratici dettati dall’esperienza e validi per le agenzie di interpretariato e/o per gli interpreti.

Organizzare un servizio di interpretariato da remoto

Una volta chiarito con il cliente l’obiettivo dell’evento online, è necessario consigliarlo in merito a quale piattaforma adottare. Ce ne sono tante sul mercato e ognuna di esse offre possibilità diverse per quanto riguarda sia la tecnica di interpretazione (simultanea, consecutiva, trattativa) sia la modalità di interpretariato da remoto. Prima di utilizzarle è necessaria un’approfondita ricerca sulle caratteristiche e la qualità tecnica della strumentazione (es. sistema audio e video) e del software (es. modalità di interazione tra i membri del team, modalità di cambio turno per gli interpreti). Molto spesso le società che noleggiano le piattaforme mettono a disposizione il proprio staff tecnico, in caso contrario è necessario assicurarsi che sia disponibile, qualora le caratteristiche tecniche del sistema lo rendano necessario.

Oltre alla prassi usuale del lavoro di intermediazione tra i clienti e gli interpreti, al fine di garantire un buon servizio le agenzie dovrebbero considerare anche i seguenti aspetti:

  • testare la piattaforma prima di sceglierla, insieme ai fornitori, agli interpreti, allo staff tecnico e al cliente;
  • richiedere il materiale di studio per gli interpreti: nomi e ruoli degli organizzatori e degli speaker, termini tecnici, slide di presentazione ecc.;
  • chiedere il consenso scritto degli interpreti in caso di evento registrato;
  • definire contrattualmente le responsabilità in caso di problemi tecnici: l’interprete garantisce di avere un computer con certe specifiche, una cuffia con microfono di qualità e una di riserva, una connessione Internet ad alta velocità, ma non garantisce per i rischi associati alla connettività o a eventi fuori dal suo controllo;
  • evitare possibilmente le tariffe orarie: organizzare un evento da remoto può favorire i clienti in termini di costi e logistica, ma non facilita il lavoro degli interpreti, che oltre alle difficoltà usuali dell’interpretazione simultanea o consecutiva si trovano a dover imparare a gestire la cabina virtuale. Non si tratta solo di saper usare i comandi, ma anche di comunicare via chat con lo staff tecnico e i membri del team durante il lavoro, di fare i conti con un audio non sempre pulito, e di rinunciare a tutti i vantaggi degli eventi dal vivo: osservare il linguaggio del corpo dello speaker, farsi aiutare dal collega di cabina che è seduto vicino ecc.;
  • se gli interpreti e gli speaker sono connessi da casa o dal proprio studio, assicurarsi che lavorino in un ambiente silenzioso e con una strumentazione di qualità: connessione Internet, cuffie e microfono, eventuale videocamera ben posizionata a livello degli occhi con una buona illuminazione;
  • se gli interpreti sono connessi da una sede con cabine fisiche dotate di computer collegato in remoto, assicurarsi che siano adottate tutte le misure tecniche e di sicurezza. In tempi di pandemia le cabine andrebbero disinfettate e ventilate prima e dopo il lavoro, ciascun interprete dovrebbe lavorare in una cabina usando le proprie cuffie e i guanti per la console, le cabine andrebbero affiancate e separate l’una dall’altra con un vetro trasparente.

Ambiente e strumentazione di lavoro

Per l’interpretariato da remoto è fondamentale che il sistema audio (e video) sia di buona qualità.
L’ideale sarebbe insonorizzare completamente la stanza nella quale si lavora, come consiglia di fare questa guida. In alternativa si può lavorare da una cabina insonorizzata.
Inoltre è necessaria una connessione Internet ad alta velocità e via cavo. Se ad esempio si lavora su Zoom, può risultare utile spegnere il video per velocizzare la connessione e modificare le impostazioni audio per ridurre il rumore di sottofondo.
Per quanto riguarda le cuffie, sono preferibili quelle semiaperte, con microfono, dotate di USB per collegarle al computer e capaci di limitare lo shock acustico.
Il microfono deve avere la funzionalità di cancellazione del rumore (ambientale e riverbero della voce) e possibilmente una risposta in frequenza tra 125 e 15.000 Hz e livelli di impedenza di 16-32 Ohm.

 

Per approfondimenti sulle caratteristiche tecniche delle cuffie e del microfono per l’interpretariato da remoto:

Naomi Bowman, How to choose a headset for RSI (Remote Simultaneous Interpreting):
https://www.linkedin.com/pulse/how-choose-headset-rsi-remote-simultaneous-naomi-bowman/?trackingId=e1%2BY8xnS7r5WE4Y%2FpXbq8Q%3D%3D

Andrea Caniato, Headsets Won’t Work Miracles: Here is How Digital Sound Gets Degraded in the 21st Century:
https://www.linkedin.com/pulse/headsets-wont-work-miracles-here-how-digital-sound-gets-caniato/?trackingId=hgwqDmbCtWSLgJlKuLLRrA%3D%3D

Linee guida dell’Associazione Internazionale degli Interpreti di Conferenza AIIC: https://aiic.net/page/9007

 

Per richiedere un servizio di interpretariato telefonico, da remoto, in videoconferenza, sottotitolazione o resocontazione in tempo reale: https://www.interpretetraduttricesimultanea.com.

Tutti pronti per l’interpretariato da remoto? Breve guida pratica per utenti e interpreti (parte 2)

Interpretariato da remoto 2

Dopo aver definito le modalità di interpretariato da remoto nel precedente articolo, presentiamo ora qualche suggerimento frutto dell’esperienza personale che può tornare utile a chi organizza e a chi partecipa agli eventi online.

Gli eventi online non sostituiscono gli eventi dal vivo

Tutto ciò che si organizza online è spesso frutto di un compromesso. A volte la telefonata o la videoconferenza rappresentano lo strumento più utile e veloce per rispondere alla necessità di comunicare nell’immediato o per sopperire alla mancanza di interpreti sul posto qualora si decidesse all’ultimo minuto di invitare un ospite straniero. Altre volte, come in questo periodo, trasformare un evento face-to-face in un evento virtuale è necessario per evitare cancellazioni.

Ricordiamoci però che la comunicazione non è solo verbale e non è fatta semplicemente di scambi di battute o interventi frontali a cui far seguire sessioni Q&A di domande e risposte. Comunicare vuol dire esprimere la propria personalità e quello che si ha da dire soprattutto con il linguaggio del corpo, vuol dire incontrarsi e confrontarsi di persona e non limitarsi al semplice argomento da trattare, ma favorire spunti di discussione e riflessione e altre occasioni di incontro.

Anche gli interpreti sono lì per “interpretare”, non per tradurre in maniera fredda o soltanto tecnica i discorsi degli speaker, ma per poter dare espressione al messaggio di chi parla, interpretandone il linguaggio del corpo, lo stato d’animo, il tono di voce, partendo dal contesto comunicativo e tenendo sempre conto della cultura di chi trasmette e di chi riceve quel messaggio. Senza tutti questi indizi visivi la difficoltà di interpretazione aumenta e ne può risentire la qualità.

Utilizzare i video nelle conferenze online è sicuramente utile, ma rispetto alle conferenze dal vivo la tecnologia può rappresentare un ostacolo che si interpone nell’atto comunicativo naturale tra chi parla, chi ascolta e chi è chiamato a mediare la comunicazione.

Prima dell’evento online

Per organizzare un evento nel migliore dei modi sono necessari molto tempo e un’attenta pianificazione, senza trascurare mai l’eventuale scelta della piattaforma e degli interpreti, che possibilmente devono avere esperienza nel settore e conoscenze pregresse dell’argomento da trattare, o quantomeno avere il tempo per prepararsi adeguatamente e produrre e studiare glossari specifici nelle lingue di lavoro. Questo vale anche per gli eventi online ed è sicuramente imprescindibile per quelli face-to-face.

Una volta stabiliti l’argomento, l’obiettivo, la struttura dell’evento online nonché il tipo di piattaforma e la modalità più adatta di interpretariato da remoto qualora vi fossero ospiti stranieri, chi organizza l’evento non dovrebbe trascurare alcuni semplici accorgimenti prima di iniziare.

Innanzitutto sarebbe opportuno inviare a partecipanti la richiesta di adesione con allegato un programma che descriva lo scopo e le aspettative della riunione o conferenza. In base al tipo di evento, sarebbe anche utile stabilire i ruoli dei partecipanti e anticipare agli ospiti se dovranno prendere parte attiva alle decisioni durante la riunione, in modo da potersi preparare. Inoltre, qualora si intendesse registrare l’evento, in questa fase è necessario informare gli interpreti in merito all’utilizzo e alle finalità della registrazione.

Una volta registrati all’evento, i partecipanti dovrebbero ricevere una email nella quale si chiede conferma di partecipazione in quella data e a quel determinato orario. Possibilmente sarebbe anche opportuno inviare una richiesta di partecipazione a una demo della piattaforma che si intende utilizzare, in modo da permettere a tutti, interpreti e tecnici compresi, di testare le funzionalità audio e video della stessa.

Durante l’evento online

Un evento online coinvolgente e dinamico idealmente non dovrebbe durare più di un’ora, ma la durata varia sempre in base alla natura e all’obiettivo dell’evento stesso.

Prima di avviare i lavori, si dovrebbe iniziare con la presentazione dell’evento (argomento, obiettivi, risultati attesi, struttura ecc.) e degli ospiti (ruoli e temi da trattare) e incoraggiare a utilizzare la chat per fare domande durante le presentazioni, in modo da mantenere l’ordine ed evitare interruzioni.

Se si organizzano interventi frontali, l’ideale sarebbe usare presentazioni in PowerPoint e renderle visibili a tutti con la funzionalità di condivisione dello schermo, aggiungendo brevi pause musicali o video. In questo caso, prestare anche attenzione a non mostrare eventuali dati sensibili (es. compilazione automatica) e a chiudere varie app e finestre aperte.

In generale, per mantenere l’attenzione degli ospiti durante la conferenza sarebbe utile fare delle pause di tanto in tanto oppure intervallare presentazioni frontali a sessioni parallele, Q&A, interviste, esercizi di gruppo, giochi di ruolo, sondaggi ecc.

Per agevolare la comprensione del messaggio ai partecipanti e agli interpreti, sarebbe opportuno parlare in un ambiente ordinato, adeguatamente illuminato e silenzioso, con una buona connessione Internet e cuffie e microfono di qualità. Gli speaker dovrebbero moderare il ritmo, anche per prevenire problemi dovuti a una connessione instabile, e parlare uno alla volta, con il microfono e la videocamera ben posizionati. Quando non intervengono, dovrebbero silenziare il microfono e mantenere l’attenzione rivolta all’evento, quindi chiudere eventuali app o finestre aperte per eliminare le notifiche.

Dopo l’evento online

Al termine dell’evento, può risultare utile fare una rapida sintesi dei punti trattati e delle iniziative e decisioni prese (anche per gli ospiti arrivati in ritardo), informando i partecipanti in merito a eventuali follow-up, senza dimenticare di ringraziarli per la partecipazione.

 

Per richiedere un servizio di interpretariato telefonico, da remoto, in videoconferenza, sottotitolazione o resocontazione in tempo reale: https://www.interpretetraduttricesimultanea.com.

Tutti pronti per l’interpretariato da remoto? Breve guida pratica per utenti e interpreti (parte 1)

Interpretariato da remoto 1

Le misure preventive messe in atto di recente su scala globale durante l’emergenza sanitaria scatenata dal COVID-19 hanno causato l’annullamento di molti eventi locali, nazionali e internazionali. Per adattarsi a questa nuova situazione, gli organizzatori di riunioni, meeting, convegni e conferenze hanno dovuto spostare i loro eventi online, convertendo gli eventi face-to-face in meeting virtuali su piattaforme apposite che permettono di collegare i partecipanti in rete dalla propria abitazione o dal proprio luogo di lavoro.
Per gli eventi internazionali anche gli interpreti e le società di servizi linguistici si sono dovuti adattare alle tecnologie di interpretazione simultanea e consecutiva da remoto. Nel precedente articolo abbiamo affrontato il tema delle tecnologie di interpretazione automatica e assistita; le piattaforme di interpretariato da remoto rientrano nel gruppo delle tecnologie CAI (Computer-Aided Interpreting) di tipo setting-oriented.

Le modalità di interpretariato da remoto

Esistono varie modalità di traduzione della lingua orale da remoto, che esistevano già prima dell’emergenza sanitaria, e che la nuova situazione venutasi a creare ha fatto emergere con maggiore forza:

1. Interpretariato telefonico (OPI – Over-The-Phone Interpreting) – I parlanti e l’interprete sono collegati attraverso una linea telefonica tradizionale o un’apposita applicazione che richiede il collegamento a Internet. È una modalità usata ad esempio per interviste, colloqui tra esperti e in tutte quelle situazioni comunicative di tipo dialogico nelle quali l’interprete traduce in consecutiva le domande e le risposte.

2. Interpretariato simultaneo da remoto (RSI – Remote Simultaneous Interpreting) – Un’apposita piattaforma sostituisce la cabina e diventa la console virtuale dell’interprete, dalla quale esso ascolta e vede via video gli speaker, gestisce i pulsanti per modulare l’audio e la lingua in entrata e in uscita, e ha la possibilità di comunicare via chat con gli organizzatori, i tecnici e il collega di cabina. È una modalità usata per conferenze di vario tipo alle quali i partecipanti e gli interpreti si possono collegare da casa o da una sede apposita (una stanza dotata di cabine fisiche per gli interpreti collegate via Internet per fornire il servizio online ai partecipanti collegati da casa, oppure il luogo della conferenza nel quale si trovano i partecipanti che ascoltano gli interpreti collegati da remoto). In questa modalità, la app della piattaforma che fornisce il servizio permette ai partecipanti che necessitano della traduzione di selezionare il canale della lingua e di ascoltarla dal computer o dal proprio smartphone.

3. Interpretariato in videoconferenza (VRI – Video Remote Interpreting) – Un’apposita piattaforma virtuale permette all’interprete di lavorare via video in modalità simultanea o consecutiva e all’utente di collegarsi per ascoltare e vedere l’interprete che fornisce il servizio da remoto. È una modalità molto usata nell’interpretariato di comunità, soprattutto nei tribunali e negli ospedali o nei casi in cui la specificità del servizio richiede un’interazione più diretta tra tutti i partecipanti alla comunicazione.

4. Sottotitolazione in tempo reale da remoto (Remote Live Subtitling) – In questa modalità il professionista può produrre i sottotitoli o nella stessa lingua della conferenza a beneficio dei partecipanti sordi (tramite respeaking intralinguistico) oppure in un’altra lingua a beneficio dei partecipanti che non conoscono la lingua dello speaker (tramite respeaking interlinguistico). La piattaforma Zoom offre la funzionalità Closed Captioning per i sottotitoli delle conferenze online.

5. Resocontazione in tempo reale da remoto (Remote Live Reporting) – Con questa modalità il professionista può produrre il testo scritto degli interventi della conferenza online in tempo reale in modalità sia intralinguistica (nella stessa lingua) sia interlinguistica (da una lingua all’altra). In questo caso si serve di un’apposita piattaforma che gli permette di inviare il testo o la traduzione prodotti in tempo reale con la tecnica del respeaking dal proprio computer al server remoto. I partecipanti possono leggere in tempo reale la trascrizione o la traduzione dei discorsi accedendo al link tramite il proprio tablet o smartphone.

Per maggiori informazioni sulle tecniche di respeaking si vedano gli articoli: “L’innovazione nel settore dell’interpretariato” e “”Trans-pretation”: il futuro dell’interpretazione simultanea è scritto?”.

 

Per richiedere un servizio di interpretariato telefonico, da remoto, in videoconferenza, sottotitolazione o resocontazione in tempo reale: https://www.interpretetraduttricesimultanea.com.

Il rapporto tra l’interprete e l’intelligenza artificiale

Interprete e intelligenza artificiale

Le innovazioni tecnologiche nel settore della lingua scritta sono antecedenti rispetto a quelle della lingua orale e ne costituiscono la base.

Esiste una differenza tra machine translation (MT – traduzione automatica) e computer-aided/-assisted translation (CAT – traduzione assistita): la prima consiste nell’impiego di un sistema informatico per tradurre un testo scritto da una lingua all’altra senza l’intervento del traduttore; la seconda è la traduzione effettuata con l’ausilio di programmi informatici o software al fine di ridurre il carico lavorativo del traduttore umano e migliorare lo stile e la terminologia del testo.

Così come nel settore della traduzione, anche in quello dell’interpretazione esiste una distinzione tra machine interpretation (MI – interpretazione automatica) e computer-aided/computer-assisted interpretation (CAI – interpretazione assistita): mentre la prima non richiede l’intervento dell’interprete, la seconda utilizza un software per facilitare alcuni aspetti del processo di traduzione orale, al fine di rendere il servizio dell’interprete umano migliore e più efficiente.

Quali sono stati nel corso del tempo gli sviluppi dell’intelligenza artificiale (I.A.) e della linguistica computazionale nel settore dell’elaborazione del linguaggio naturale e in seguito in quello dell’interpretazione automatica e assistita?

L’intelligenza artificiale

Secondo il professor Bruce G. Buchanan dell’Università di Pittsburgh, la storia antica dell’I.A. parte dalla mitologia greca e concerne la creazione di artefatti “intelligenti” costruiti con strumenti meccanici reali o fraudolenti, mentre la storia moderna dell’I.A. inizia a partire dalla seconda guerra mondiale e riguarda la creazione dei primi elaboratori elettronici moderni e di programmi che svolgono complessi compiti intellettuali.

L’intelligenza artificiale nel ventunesimo secolo è lo studio dei meccanismi alla base della conoscenza umana, dal ragionamento logico-matematico alla comprensione del linguaggio naturale, al fine di riprodurli tramite elaboratori elettronici che possano compiere azioni “intelligenti”. Oggi il principale motivo di scontro tra gli esperti del settore è riducibile alla suddivisione dell’I.A. in due branche: l’I.A. forte (un computer può avere un’intelligenza pari a quella umana) e l’I.A. debole (un computer non sarà mai equivalente alla mente umana, dal momento che quest’ultima è dotata anche di creatività, socialità ed emozioni). Se si considera la programmazione classica basata su linguaggi simbolici e lineari, domina l’I.A. debole. Se invece si considera la diffusione di reti neurali, di algoritmi generici e di sistemi di calcolo parallelo, l’ago della bilancia si sposta a favore dei sostenitori dell’I.A. forte. In ogni caso la chiave dell’intelligenza artificiale è sempre l’imitazione dell’intelligenza naturale basata sul processo di apprendimento delle macchine.

La linguistica computazionale

Spesso la linguistica computazionale è considerata un sotto-campo dell’I.A., anche se la sua nascita come settore di studi è precedente. La linguistica computazionale nacque infatti negli anni Cinquanta negli Stati Uniti per opera di linguisti computazionali che si servivano del computer per tradurre gli articoli delle riviste scientifiche dal russo all’inglese. Notando che le traduzioni automatiche non erano accurate, proposero la linguistica computazionale come nuovo campo per sviluppare algoritmi e programmi per elaborare dati linguistici. In altre parole, la disciplina divenne un sotto-settore dell’I.A. nel momento in cui ci si rese conto che per tradurre automaticamente era necessario capire il funzionamento della comprensione e della produzione umana del linguaggio naturale, elaborandolo tramite un computer.

Tra gli anni Sessanta e gli anni Settanta, la sinergia tra le teorie formali del linguaggio e il calcolo simbolico ha portato alla realizzazione di programmi informatici che rappresentano modelli linguistici. Poiché per riprodurre i processi linguistici non era più sufficiente l’informatica, si iniziò a diffondere l’idea di utilizzare la linguistica computazionale per tradurre da una lingua all’altra. L’idea era già nata nel 1949, quando Warren Weaver, uno dei padri della Teoria della Comunicazione, propose di affiancare alle tecniche statistiche conoscenze di linguistica formale per l’attività di “transduzione” da un codice all’altro, svolta dai servizi segreti nell’operazione di code cracking (code breaking).

La Association for Computational Linguistics definisce la linguistica computazionale come lo studio scientifico della lingua da una prospettiva computazionale; secondo Giacomo Ferrari essa affonda le sue radici nelle discipline formali tradizionali, ovvero:
– la linguistica: la genealogia delle lingue di August Schleicher, influenzato dalle teorie evoluzioniste del naturalista inglese Charles Darwin, e la linguistica di Ferdinand De Saussure, influenzato a sua volta dal sociologo Émile Durchheim;
– la matematica: lo studio dei meccanismi formali della comunicazione;
– l’informatica, della quale la linguistica computazionale è soltanto una scienza parallela e non una sua applicazione;
– è alla base dell’ingegneria linguistica, la quale consiste nella progettazione linguistica con il fine di costruire sistemi di elaborazione del linguaggio naturale.

Alla luce di tale definizione la linguistica computazionale è un campo interdisciplinare che studia i formalismi descrittivi del funzionamento del linguaggio naturale (una qualsiasi lingua non inventata formatasi gradualmente nel corso del tempo che si distingue dai linguaggi dei computer) con lo scopo di riprodurlo in programmi supportati da elaboratori elettronici. Così come nell’intelligenza artificiale, anche nella linguistica computazionale si deve dare al computer la possibilità di apprendere, ovvero creare sistemi di apprendimento automatico che producano programmi in grado di acquisire ed elaborare campioni, estraendone le conoscenze linguistiche.

L’elaborazione del linguaggio naturale

Le tecnologie di interpretazione automatica sono il risultato degli studi condotti in un campo denominato Natural Language Processing (NLP), ovvero “elaborazione del linguaggio naturale”, “tecnologia del linguaggio” o “tecnologia del linguaggio naturale”; il termine viene utilizzato a partire dagli anni Ottanta per definire un insieme di software che elaborano in modo intelligente testi scritti in linguaggio naturale, tra i quali word processors, dizionari, correttori di grammatica e spelling e programmi di traduzione automatica. Attualmente, dal punto di vista teorico, l’NLP si definisce come un campo dell’informatica sovrapposto alla linguistica computazionale che studia le interazioni tra il computer e il linguaggio umano naturale, sia scritto che orale. In questo articolo ci occuperemo soltanto della lingua orale.

Il processo più complesso di NLP è la comprensione del linguaggio naturale, che richiede da parte del computer una vasta conoscenza del mondo e la capacità di manipolarlo. Il processo di comprensione della lingua orale si articola a sua volta in riconoscimento automatico della voce (voice recognition, ovvero il riconoscimento della voce ma non l’analisi del contenuto dell’espressione vocale) o del parlato (speech recognition, ovvero il riconoscimento della voce con lo scopo di capire il contenuto di ciò che il parlante dice) e analisi del testo orale. I passi successivi sono la traduzione automatica (machine translation) e la produzione della lingua orale (speech synthesis o sintesi vocale).

L’interpretazione automatica (machine interpreting)

A partire dal 1992 l’SRI International ha realizzato un’architettura modulare di traduzione della voce unilaterale per un numero ristretto di ambiti (viaggi in aereo) e di lingue (inglese, svedese, francese e in seguito spagnolo) con un vocabolario di 1.500 parole. Il software si chiamava Spoken Language Translator e la sua architettura di sistema costituisce tuttora la base delle tecnologie di interpretazione automatica. Nel 1995 è stata introdotta la nuova versione del sistema con traduzione bilaterale e negli anni successivi, fino alla metà del 1999, sono state introdotte nuove lingue e nuovi ambiti di applicazione.

Gli attuali dispositivi di traduzione mobile sono stati sviluppati a partire dai sistemi di traduzione unilaterale di frasi dall’inglese, che sono stati poi estesi a sistemi bilaterali e infine a quelli più attuali di interpretazione automatica del parlato spontaneo. La maggior parte dei dispositivi in commercio destinati ad ambiti specifici si basa su sistemi di traduzione di frasi di lunghezza limitata, detti SPTS (Spoken Phrase Translation Systems). Questi sistemi sono ispirati ai manuali di conversazione, nei quali per ogni ambito è indicata una lista di frasi con la rispettiva forma fonetica, e necessitano di un input vocale che consenta loro di selezionare la frase voluta e di ripeterla nella lingua di arrivo riproducendo la traduzione preregistrata. L’ampliamento degli SPTS ha portato alla creazione dei sistemi di dialogo tra l’uomo e la tecnologia, detti SLS (Spoken Language Systems), i quali rispondono alle domande o agli ordini dell’utente o seguono le sue istruzioni.

Idealmente, un interprete automatico dovrebbe contenere tutti i sistemi suddetti e disporre di un vocabolario e di una comprensione del mondo e delle lingue tali da poter gestire una comunicazione e tradurre la lingua parlata a un livello pari o addirittura superiore a quello di un interprete umano, pertanto la strada verso la creazione di un interprete automatico a tutti gli effetti è ancora lunga. Il primo sistema vero e proprio di traduzione mobile è stato costruito soltanto nel 1999 in Giappone dall’Advanced Telecommunications Research Institute International ed era un dispositivo mobile destinato a chi viaggia che conteneva una voce che traduceva le parole pronunciate dall’utente (giapponese) nella lingua di arrivo (coreano) nel telefono cellulare di un altro utente, servendosi di traduzioni preregistrate. Nel 2005 un’altra società giapponese, la NEC Corporation, ha annunciato lo sviluppo di un sistema di traduzione che poteva essere caricato nei telefoni cellulari e che poteva riconoscere 50.000 parole giapponesi e 30.000 parole inglesi ed era specializzato per le informazioni turistiche, ma il progetto è stato presentato soltanto nel 2009. A questi strumenti sono seguiti i cellulari per l’apprendimento delle lingue, nei quali voci di dizionario, frasi, quiz e traduzioni erano inviati via sms. Inoltre nel 2007 la società bulgara Interlecta ha lanciato uno strumento di traduzione mobile con la possibilità di inviare traduzioni scritte via sms o e-mail, integrato con un modulo di sintesi vocale e di traduzione di immagini. Per funzionare, gli strumenti di traduzione mobile devono poter comunicare con server esterni che ricevono il testo scritto o orale di input, lo traducono e lo rimandano all’utente; per questo necessitano della connessione a Internet. Pertanto, i dizionari parlanti e i manuali di conversazione destinati a molti strumenti portatili non rientrano fra le tecnologie di traduzione mobile in quanto non richiedono Internet.

Dal 2002 DARPA finanzia il progetto dell’SRI International che mira allo sviluppo di tecnologie di interpretazione automatica di tre tipi, le quali si distinguono in base al genere di servizio fornito: la traduzione della voce unilaterale (dall’inglese a più lingue di arrivo), bilaterale (dall’inglese a altre lingue e viceversa) e del parlato spontaneo (interpretazione anche bilaterale di frasi spontanee non memorizzate in precedenza nel sistema).

L’interpretazione assistita (computer-aided interpretation)

Le tecnologie di interpretazione assistita sono soprattutto frutto delle ricerche degli ultimi vent’anni.

Claudio Fantinuoli distingue due grandi gruppi di tecnologie CAI: quelle process-oriented supportano e accompagnano l’interprete durante le fasi del servizio o del processo di traduzione orale (sistemi di gestione terminologica, estrazione di dati, memorizzazione terminologica, analisi dei corpora ecc.); quelle setting-oriented circondano il processo di interpretazione (console per cabine, piattaforme e dispositivi di interpretariato da remoto o telefonico ecc.). In questo articolo illustreremo alcuni esempi di tecnologie CAI process-oriented.

Nel 1999 un interprete funzionario dell’Unione europea ha proposto di utilizzare un registratore vocale digitale per registrare il discorso originale, che viene poi ripetuto alle orecchie dell’interprete, il quale lo rende in modalità simultanea: il sistema è chiamato Consec-Simul, in quanto combina le modalità di interpretazione consecutiva e simultanea.

Nel 2014 è stato introdotto il sistema Consecutive Pen, che fa uso di una penna digitale per prendere appunti su carta speciale integrando un microfono incorporato, una cassa acustica e una telecamera a infrarossi. Un programma sincronizza gli appunti con l’audio registrato nello stesso momento e l’utente può toccare una parola per ascoltare la parte dell’audio corrispondente.

Secondo Fantinuoli, a seconda dell’architettura e dello spettro di funzionalità, gli strumenti CAI si dividono in strumenti di prima generazione e di seconda generazione. I primi sono stati introdotti 15 anni fa e progettati per supportare gli interpreti nella gestione terminologica. Interplex, Terminus, Interpreters’ Help, LookUp e DolTerm sono tutte interfacce grafiche per memorizzare e recuperare dati terminologici multilingue da una banca dati. Si distinguono dai sistemi di gestione terminologica dei traduttori in quanto sono in grado di memorizzare informazioni aggiuntive ai termini in settori specifici e consentono di categorizzare i termini ricercati. I secondi sono più recenti e rispondono alla necessità di rispondere in maniera più completa alle esigenze degli interpreti durante il processo di lavoro, aggiungendo ad esempio funzionalità di organizzazione del materiale testuale, recupero delle informazioni dai corpora o da altre risorse ecc. Intragloss e InterpretBank sono gli strumenti CAI di seconda generazione attualmente diffusi. Intragloss assiste l’interprete nella fase preparatoria di un incarico e presenta un approccio nuovo alla creazione dei glossari, in quanto si basa sull’interazione tra i testi preparatori e la banca dati terminologica. Inoltre consente da un lato di preparare un glossario evidenziando un termine e cercandone la traduzione nelle risorse online come i glossari, le banche dati, i dizionari ecc., dall’altro di estrarre automaticamente tutti i termini del glossario di settore che appare nel documento, collegando direttamente i testi con la banca dati terminologica disponibile. Invece InterpretBank dispone di funzionalità specifiche che tengono conto dei limiti di tempo e delle peculiarità dell’interpretazione simultanea ed è attualmente l’unico strumento CAI che facilita il processo di ricerca terminologica in cabina.

Inoltre le tecnologie di interpretazione sono utilizzate anche nella didattica e per soddisfare le necessità comunicative dei sordi in tempo reale. In quest’ultimo caso, i servizi CAI utilizzano tecnologie di trascrizione, resocontazione e sottotitolazione per trasformare il testo orale in testo scritto, servendosi di trascrittori, resocontisti o sottotitolatori che digitano l’input vocale su laptop con tecniche di scrittura veloce, con macchine stenografiche o con il riconoscimento del parlato (respeaking) in modalità intralinguistica (da una lingua alla stessa lingua) o interlinguistica (da una lingua a un’altra). Il respeaking (per maggiori informazioni si veda l’articolo di questo blog “”Transpretation”: il futuro dell’interpretazione simultanea è scritto?”) è una tecnica di produzione di sottotitoli in tempo reale nella quale il respeaker ascolta alle cuffie la voce dell’oratore e simultaneamente sintetizza/ripete il discorso a un software di riconoscimento del parlato utilizzando un microfono standard oppure insonorizzato (stenomask). Mentre il software trascrive il testo dettato al computer, il respeaker corregge il testo trascritto e lo trasforma in sottotitoli mediante appositi software. A seconda del tipo di utenza e delle finalità del servizio, il pubblico che legge il testo può essere composto di utenti sordi oppure stranieri. In quest’ultimo caso, è possibile abbinare il servizio di interpretazione simultanea al servizio di respeaking, oppure servirsi di professionisti interpreti-respeaker che svolgano contemporaneamente entrambi i servizi.

Verso il futuro

Oggi il mondo delle tecnologie destinate agli interpreti di conferenza è ancora un labirinto in continua evoluzione. I sostenitori dell’I.A. forte che non conoscono le peculiarità del lavoro degli interpreti intendono costruire interpreti automatici senza tenere conto dei molteplici compiti che svolge un interprete, che oltre a lavorare sulla lingua e sulla cultura, vive l’ambiente che lo circonda. L’interprete ascolta l’oratore osservando i segnali non verbali e le reazioni del pubblico, analizza e vive completamente il messaggio effimero, lo “interpreta” tenendo conto della cultura di partenza e di quella di arrivo e stabilisce con le persone un contatto visivo, al fine di assicurarsi che il messaggio sia stato ricevuto e compreso. Finora nessuna macchina è riuscita a fare tutto questo e gli interpreti automatici si sono ridotti a meri strumenti portatili in grado di risolvere i problemi comunicativi solo nelle situazioni di emergenza.
Chissà se l’incubo del mostro tecnologico tanto temuto dagli interpreti un giorno si realizzerà oppure svanirà completamente? Una delle citazioni più famose del grande evento di Ginevra dello scorso ottobre “100 years of Conference Interpreting” è questa:

Gli interpreti non saranno sostituiti dalla tecnologia, ma saranno sostituiti dagli interpreti che utilizzano la tecnologia.

Dunque gli interpreti di oggi saranno disposti a seguire il progresso tecnologico per trovare nell’I.A. un’utile alleata?

 

Fonti principali:
Interpretazione automatica o assistita? Il rapporto tra l’interprete e l’intelligenza artificiale di A. Checcarelli, 2009, tesi di laurea specialistica non pubblicata
Computer-assisted interpretation: challenges and future perspectives di C. Fantinuoli, 2018, pubblicazione

L’innovazione nel settore dell’interpretariato – Intervista “A tu per tu con i professionisti”

Intervista del 28 aprile 2020 ad Alessandra Checcarelli, ospite del ciclo di dirette “A tu per tu con i professionisti” organizzato dalla SSML San Domenico di Roma.

IMG_20200501_175742

Buon pomeriggio alla nostra ospite del secondo giorno del ciclo di dirette “A tu per tu con i professionisti”: oggi abbiamo Alessandra Checcarelli, interprete e traduttrice.

Racconto brevemente come ci siamo conosciute, per rimarcare quanto è importante lavorare nel Web. Ci siamo conosciute perché Alessandra ha un blog molto interessante, che tratta di lingue, traduzione, e interpretariato, e anche perché poi sono andata a vedere chi era e cosa faceva. Ha in parallelo anche un sito vetrina, che parla della sua attività, del suo curriculum, dei suoi servizi, quindi ha tutta una struttura ad hoc. Poi dalla presenza on-line a LinkedIn, da LinkedIn a un bel messaggio, dal messaggio a un invito a un evento, poi purtroppo c’è stato il lockdown e non abbiamo potuto fare l’evento, ma ci siamo conosciute dal vivo e adesso ci incontriamo di nuovo tramite PC, in streaming.

Vuoi raccontarti brevemente e dirci chi sei?

Ho iniziato a occuparmi di interpretariato frequentando la scuola interpreti. Sono partita direttamente con un percorso da scuola interpreti, frequentando prima la facoltà di Mediazione Linguistica e Culturale per avere le basi della traduzione scritta e della traduzione orale o interpretazione. Dopodiché ho frequentato il corso di laurea di secondo livello in Interpretariato di Conferenza perché mi sentivo più portata per la traduzione orale per motivi caratteriali. Terminato il percorso universitario, precisamente dieci anni fa, nel 2010, ho iniziato l’attività di interprete e traduttrice, all’inizio più lentamente, anche svolgendo dei lavori paralleli part-time sempre nel settore delle lingue, poi piano piano ho aumentato la base di clienti, di contatti, di colleghi ecc. e ho iniziato a svolgere a tempo pieno l’attività freelance soprattutto di interprete, ma anche di traduttrice.

Perché hai deciso di aprire il sito e il blog? Questi erano più o meno connessi al tuo percorso professionale? In quale fase li collochi?

Ai tempi dell’università ero una delle persone più lontane dalla tecnologia, o meglio, mi limitavo a conoscere la tecnologia di base che mi serviva per svolgere soltanto l’attività di traduttrice e interprete, che poi chiaramente ho approfondito nel corso del tempo e dopo la laurea. Poi però mi sono resa conto che la pubblicità era una cosa molto importante, non soltanto dal vivo (i contatti personali con i colleghi e con i clienti e quindi il passaparola, che chiaramente è utilissimo), ma anche la presenza on-line. Oggi come oggi, senza presenza on-line si è quasi fuori dal mercato. Con il sito web ho iniziato qualche anno dopo, cinque o sei anni fa; mi serviva chiaramente un sito web di tipo vetrina, nel quale potessi almeno far vedere innanzitutto che esistevo, poi che cosa facevo, come avevo intenzione di venire incontro alle esigenze dei diversi clienti, quali clienti ecc. Poi ovviamente tutto è andato di pari passo con delle specializzazioni che ho approfondito e portato avanti nel corso del tempo. Quindi prima è venuto il sito, poi piano piano e abbastanza recentemente, circa tre anni fa, ho aperto anche questo blog, per approfondire i miei interessi, dedicandolo non soltanto alla traduzione e all’interpretariato. Chiaramente questa era una sezione utile, anche perché avendo un sito statico mi serviva una piattaforma dove mantenere il passo con gli sviluppi del settore, informare i clienti, mantenere un contatto con i colleghi del settore, e per questo mi serviva una piattaforma dinamica. Il sito e il blog sono entrambi utilissimi, perché senza di essi tutto si baserebbe sul passaparola, che è fondamentale e anche naturale quando si svolge la libera professione, però avere una presenza on-line è essenziale e imprescindibile.

Infatti, a prescindere da quello che stiamo vivendo in questo momento, bisogna utilizzare più canali. Le relazioni personali face-to-face sono importanti, però dall’altra parte io che ti ho conosciuto voglio informarmi e capire bene cosa fai e chi sei, quindi la prima cosa che faccio è andarti a cercare. Ti cerco su Google e se hai un sito bene, vedo anche tutto quello che hai fatto, se ci sono delle foto anche meglio (ho visto anche le tue di foto sul tuo sito: una bella esperienza!). Puoi dirci qualcosa sulle esperienze più divertenti, più difficili o più particolari? Anche questo sarebbe interessante.

Le mie esperienze sono state e sono tuttora (lockdown escluso) abbastanza variegate, sono sempre state molto differenziate e diverse l’una dall’altra. Io non mi sono mai concentrata esclusivamente su un settore soltanto, proprio perché sono una persona dinamica e curiosa, mi piace conoscere tante cose, quindi sono partita da generalista piuttosto che da specialista, poi piano piano ho continuato a formarmi lavorando. È anche il lavoro, anzi, soprattutto il lavoro, che fa l’interprete, perché un interprete o un traduttore si forma sul campo, essendo professioni molto pratiche, non si può formare con la semplice teoria o con il semplice percorso di laurea. Si diventa professionisti svolgendo la professione. Questo è stato il mio caso. Poi avendo lavorato in settori diversi, dalla politica e quindi le istituzioni all’economia e alla finanza e quindi le aziende, considerando anche le singole specialità delle aziende, che sono tutte diverse (ognuna produce una cosa), ho iniziato uno studio per quanto riguarda la specialità della singola azienda o del singolo cliente e ho approfondito facendo diverse cose e approfondendone altre. Tra le più difficili, io direi che chiaramente il mercato privato è quanto più difficile ci possa essere per un interprete, più del pubblico, perché è più variegato. Almeno per quella che è la mia esperienza, nel privato la difficoltà sta nel fatto che ogni volta è una prima volta, ogni volta è una cosa diversa, e anche se si ripete l’argomento, è la realtà del cliente a cambiare. Se vogliamo servire un cliente, dobbiamo fare attenzione alla sua realtà: senza conoscere quella realtà, è difficile saperlo tradurre o interpretare bene. L’ambito istituzionale è complesso, però dipende dal tipo di istituzionale, che a volte può diventare complesso, a volte invece se si parla di assemblee o discorsi politici, se si conosce l’attualità, è un settore un po’ meno variegato, anche se non necessariamente più facile. Io ho fatto anche delle esperienze in televisione, traducendo anche capi di stato e di governo. Quelle sono state esperienze che io ho trovato molto divertenti.

Divertenti? Immagino anche emozionanti!

Sì e no, per un motivo semplice: sono state entusiasmanti più che emozionanti, perché “emozionante” potrebbe dire che l’emozione può giocare brutti scherzi e in quel caso l’interprete potrebbe riscontrare le difficoltà della diretta, cosa che non deve succedere. Da interpreti si impara ad avere sangue freddo, un po’ forse gli interpreti ce l’hanno di natura, un po’ chiaramente lo imparano, così come imparano a saper gestire le emozioni. Quindi parlare di incarichi emozionanti direi che è possibile fino a un certo punto: lo sono come esperienza in toto, ma non nel momento in cui si sta lavorando, quello non deve esserlo mai, o comunque dobbiamo cercare di limitare le emozioni il più possibile e mantenere la razionalità, perché si deve sempre capire il discorso che fa qualcun altro, ci si deve calare nella situazione, e nel momento in cui si è troppo emotivi, diventa difficile.

È proprio quello che deve fare l’interprete: non deve uscire fuori dal suo ruolo o far trasparire emozioni.

Esatto. Con questo non voglio dire che non si debbano avere, perché averle è essenziale per calarsi nel ruolo. Anche in quel caso, l’interprete che rende meglio il messaggio è l’interprete che molto probabilmente si cala meglio nei panni dell’oratore, oppure, come dicevo prima, nella realtà del cliente. Per esempio nei discorsi politici, ma a volte anche nell’interpretariato di tribunale in alcuni casi può diventare difficile, a seconda dei casi. Però è un mestiere in cui non ci si annoia e che ti mette alla prova in toto; a me piace tanto per questo.

È anche motivo di crescita sotto tutti i punti di vista, perché poi magari hai anche meno paura di fare certe cose, ad esempio parlare in pubblico diventa più semplice perché sei abituato a parlare davanti a un ministro oppure a un personaggio importante e quindi poi certe cose diventano più semplici, perché hai già provato certe emozioni prima della prestazione, mentre poi hai mantenuto il controllo, quindi impari per forza.

Sul parlare in pubblico, se parliamo sempre di fare l’interprete è vero, ma non è detto. Con il fatto che l’interprete con il tempo si abitua a parlare in pubblico, ma dicendo quello che ha detto qualcun altro, magari può trovare più difficoltà a raccontare in pubblico questioni personali oppure a fare degli interventi propri. Potrebbe essere più difficoltoso rispetto a quando si parla in pubblico e si rende il messaggio di qualcun altro.

Certo, ci sono tante situazioni e bisogna sperimentare per capire. Veniamo poi all’argomento super interessante, che io che non sono del settore giustamente non conoscevo, ma che ho scoperto on-line dal tuo blog e poi da te che me lo hai raccontato. Adesso mi farebbe piacere che anche tu lo raccontassi a tutti coloro che ci stanno seguendo. Parlo proprio dell’interpretariato in simultanea sottotitolato.

Questo è un servizio molto innovativo che sta prendendo piede negli ultimi anni. È un tipo di servizio che piano piano come mondo degli interpreti stiamo introducendo nel mercato, a partire da una tecnica che serve per fare i sottotitoli live. Prima di parlare di interpretazione simultanea sottotitolata, io partirei da come funziona la sottotitolazione in tempo reale. Io utilizzo una tecnica, che è quella del respeaking, che consiste nel dettare a un software che riconosce la mia voce quello che io sto sentendo, per poterlo poi trasmettere a un pubblico per esempio non udente. Se per esempio in questo momento un oratore sta parlando l’italiano, io voglio rendere il messaggio a un pubblico sordo, il quale, non potendolo ascoltare, lo può leggere. In sostanza quello che faccio è dettare il messaggio a questo software che riconosce la mia voce e trascrive quello che ho detto, in modo che il pubblico sordo lo possa leggere. Con questa tecnica io faccio un servizio di sottotitolazione in tempo reale. Potendolo fare dall’italiano, che è la mia madrelingua, verso l’italiano, lo posso fare anche come interprete, cioè considerando che un oratore parla una lingua che io posso tradurre in simultanea, ma non per un pubblico che mi ascolta, bensì per un software che lo trascrive e poi lo proietta su uno schermo affinché il pubblico lo possa leggere. Quindi l’interpretazione simultanea sottotitolata combina le tecniche dell’interpretazione simultanea classica con la tecnica del respeaking o respeakeraggio, in cui l’interprete “ridice” quello che sta dicendo l’oratore, e nel caso della simultanea aggiunge questo passaggio interlinguistico, per esempio l’oratore parla in inglese e io proietto i sottotitoli in italiano. Si tratta di un servizio in più destinato a un pubblico qualsiasi che può richiedere questo tipo di servizio. Chiaramente può essere un pubblico sordo, come nel caso del respeaking intralinguistico (la sottotitolazione in diretta da una lingua alla stessa lingua), oppure un pubblico straniero (con il passaggio da una lingua a un’altra).

Quand’è che viene applicato: quando si fa una conferenza, insieme all’interpretazione simultanea, in parallelo o sono due cose che si possono adottare separatamente?

Se parliamo di una conferenza, l’interpretazione simultanea sottotitolata si fa in un contesto ideale nel quale ci sono (come nel caso della simultanea classica) un pubblico straniero e un oratore che parla una lingua diversa. Come funziona? O è lo stesso interprete a essere anche respeaker, e in quel caso l’interprete funge da interprete-respeaker, dettando al software il messaggio in un’altra lingua, allo stesso tempo facendo la simultanea, dettandola al software, manovrando i comandi del software e correggendo per fare in modo che la resa non sia sbagliata. Poiché per questo è richiesto un carico cognitivo molto elevato (dato dalla combinazione delle varie tecniche, dall’utilizzo della tecnologia, per cui si hanno sotto controllo tante cose in più), in questo caso si può pensare anche di avere due interpreti (chi fa l’interprete ha sempre bisogno di un collega di cabina o da remoto che lo sostituisca ogni venti minuti, per cui ogni venti minuti lavora uno dei due interpreti) e due respeaker, altrimenti il livello di stress per combinare tutti i servizi credo sia almeno il doppio di quello della simultanea classica. Questo è il motivo per cui questo tipo di servizio, richiedendo quattro professionisti anziché due, forse fatica un po’ a prendere piede, ma è anche vero che avere due interpreti-respeaker per tutta la giornata è difficile senza che si raggiungano livelli di stress elevati. A volte succede, mi è capitato, però chiaramente anche lì dipende dal cliente, perché anche per il cliente, seguire per tutto il tempo una trascrizione o un sottotitolo piuttosto che ascoltare è più faticoso. Per questo credo che difficilmente riusciremo a soppiantare la simultanea tradizionale, è soltanto un tipo di servizio diverso per un utente diverso che richiede una resa diversa, però non sono servizi concorrenti.

Chiaramente questa tecnica può essere applicata anche da remoto, giusto?

Esatto, può essere applicata molto bene anche da remoto. Questo è vero sia se parliamo di semplice simultanea sia se parliamo di simultanea sottotitolata sia se parliamo anche solo di respeaking. Chiaramente è possibile anche farlo da remoto, aggiungendo in più delle piattaforme in tutti i casi.

Ho detto questo perché chiaramente adesso è tutto bloccato e non c’è più la conferenza fatta nella maniera tradizionale, ma ci sarebbero le conferenze da poter organizzare in streaming. Anche questo è un appello che vorrei lanciare: purtroppo, in questo momento in cui siamo tutti fermi, ci sono delle modalità che possono essere adottate. Ci sono tantissime piattaforme che hanno concesso licenze a titolo gratuito, non solo alle istituzioni, o hanno fatto degli sconti abbastanza importanti, quindi l’evento che non si potrà più organizzare di persona come prima si può fare in streaming. Tutti i servizi che sono connessi a un evento (chiaramente l’unico che non c’è è il coffee break, ma forse quello si può fare virtualmente) come l’interpretariato si possono fare da remoto, quindi anche questa sottocategoria dell’interpretariato in simultanea si può fare allo stesso tempo da remoto; le soluzioni si possono trovare. Questa diretta di oggi serve anche a trasmettere messaggi come questo: si possono organizzare comunque eventi, si possono comunque adottare soluzioni alternative.

Esatto, più che altro perché sono servizi molto utili e più che sottocategorie della simultanea sono modalità ancora diverse di poter effettuare e usufruire della simultanea. Il fatto che sia da remoto non dovrebbe bloccare gli utenti o evitare che la utilizzino per dubbi di funzionamento, perché adesso le piattaforme si stanno evolvendo e sviluppando sia dal lato cliente che dal lato interprete. Anche gli stessi interpreti non incontreranno (se la tecnologia continua a evolversi) tante più difficoltà rispetto alla simultanea tradizionale, perché comunque i problemi tecnici possono esserci sia in una situazione dal vivo che in una situazione da remoto. Chiaramente quando si lavora in remoto non c’è nulla di tangibile, l’impatto è diverso, però anche lì è una questione di abitudine: ci sono piattaforme che trasmettono un audio molto pulito e molto buono sia per gli interpreti che ascoltano e quindi riescono a lavorare sia per chi usufruisce del servizio. Molto spesso queste piattaforme garantiscono la resa al cliente direttamente su smartphone con una app, tramite la quale si riesce ad ascoltare la simultanea come se il telefono diventasse un ricevitore che si utilizza nella simultanea classica.

Adesso mi è venuto in mente anche un altro argomento, parlando del telefono: esiste anche l’interpretariato in consecutiva tramite telefono?

La tecnologia può fare miracoli e, almeno per quella che è la mia esperienza, a volte l’interpretazione è possibile farla anche al telefono. Quando dico al telefono non intendo solo una piattaforma come può essere Skype o qualsiasi piattaforma telefonica, ma proprio lo smartphone. In quel caso si fa molto spesso consecutiva più che simultanea, ovvero, piuttosto che la simultanea, nella quale la voce dell’interprete si sovrappone a quella di chi parla, la consecutiva serve per rendere un messaggio dopo che l’oratore finisce di parlare. Se si tratta di interviste telefoniche, è possibile che l’interprete consecutivista sia chiamato anche a svolgere dei servizi di interpretariato telefonico in consecutiva. Chiaramente lì il problema è che la voce o l’audio che arrivano dal telefono non sono quelli che possono arrivare in cuffia; dovrebbe essere un audio pulito, ma non è sempre così. Questo potrebbe essere un problema, perché chiaramente l’interprete l’audio lo vuole avere pulito in quanto è proprio lo strumento del suo lavoro: senza ricevere l’audio, il messaggio non arriva. Tuttavia è una modalità fattibile nel momento in cui si conosce l’argomento o ciò di cui si sta parlando: in quel caso non è nulla di impossibile.

Certo, conoscere l’argomento aiuta: se c’è un buco nell’audio oppure non si sente bene, magari si riesce a ricostruire il discorso.

Sicuramente aiuta. Certo, l’audio pulito è sicuramente la situazione ideale. Però se vogliamo parlare di evolversi e di quello che sarà il futuro, senza rimanere soltanto con i sistemi tradizionali, sebbene sicuramente funzionanti, dobbiamo anche aprirci per far funzionare bene gli strumenti tecnologici che ci serviranno per l’interpretariato del futuro.

Sicuramente qualcuno ideerà una app che pulirà anche l’audio…

Non so se sia possibile, ma vorrei sperare che sia così. Questo non vuol dire che l’interpretariato da remoto o telefonico o comunque la tecnologia debbano sostituire per forza l’interpretariato tradizionale. Sarà comunque il mercato a dettare la linea guida e se sarà più richiesto un servizio o un altro non sarà sicuramente l’interprete a deciderlo, se non promuovendo le condizioni ottimali per svolgere il servizio, però oltre a quello si tratta sempre di una combinazione tra quello che si offre e quello di cui si fruisce.

Certo, è un adattamento, un cambiamento, poi piano piano ci si adatterà, ci evolveremo e vedremo qual è la soluzione migliore per adottare anche questa diversa tipologia di interpretariato.

Può essere un servizio diverso e complementare, che non necessariamente deve rimpiazzare l’interpretariato di persona. Anzi, sono proprio servizi diversi nei quali molto spesso l’utenza è diversa, la soluzione è diversa, quindi il risultato è diverso. Una cosa non esclude l’altra, almeno io non ho una visione esclusiva, secondo me sopravviveranno in ogni caso.

Insieme, cioè sono varie tipologie che possono essere adottate “o” oppure “e”, nell’unione delle due cose. Ho visto che già siamo a trenta minuti di diretta, quindi faccio l’ultima domanda che farò a tutti: un consiglio che daresti a uno studente e un consiglio che daresti a un tuo collega interprete ma anche traduttore.

Se vogliamo parlare di consigli, io direi che questo vale sia per la traduzione che per l’interpretariato e vale in generale sia per uno studente che per un professionista. In sostanza darei uno stesso unico consiglio che ritengo essenziale per poter svolgere al meglio la professione. Trattandosi di una professione molto pratica, si inizia già a praticarla nel momento in cui si studia. Chiaramente poi si approfondisce, ma questo è il motivo per cui si tratta di un continuum ed è difficile, dal mio punto di vista, dare un consiglio separatamente a uno studente e a un professionista. Per entrambi io direi che il consiglio è questo: non smettere mai di essere curiosi, non smettere mai di leggere, di ascoltare, di indagare, di approfondire. Meglio si conosce un argomento e meglio lo si può interpretare, e in generale, più si conosce il mondo, più si ha una cultura generale ampia, più è facile essere un bravo traduttore e interprete. È sempre un percorso di miglioramento nel quale non si è mai arrivati. Secondo me questo è un mestiere nel quale chiaramente l’esperienza conta molto, perché con l’esperienza si riesce a essere migliori, ma non vuol dire che tanta esperienza sia sufficiente. È un continuo evolversi, un continuo imparare, quindi bisogna calarsi già in questa ottica da studenti senza limitarsi o fermarsi a quello che si studia all’università. Gli esami sono utilissimi, imparare la tecnica è utile, la lingua è utile, è tutto fondamentale e propedeutico, però non basta: è un punto di partenza che va scavalcato, bisogna andare oltre. Quindi: curiosità e mai smettere di indagare e seguire seminari. Tra l’altro adesso con la quarantena siamo anche facilitati in termini di tempo per poter seguire webinar di ogni tipo, per leggere, e per informarsi, perché solo con un’ampia conoscenza del mondo si riesce a lavorare al meglio. L’interprete questo fa: trasmette un messaggio, e senza sapere di cosa si parla è difficile trasmettere un messaggio.

Sì, poi più si ha cultura e meglio è sicuramente. Io penso anche che più ci si informa dapprima e meglio è, perché chiaramente si inizia ad acquisire più bagaglio culturale. Se io per esempio mi sveglio dopo dieci anni che mi sono laureato e inizio in quel momento a capire che forse quello che ho studiato non basta e devo andare oltre, allora lì ci saranno già tutti quelli che hanno iniziato durante il percorso universitario che saranno 20.000 anni luce rispetto una persona che ha iniziato troppo tardi. Quindi secondo me anche la tempistica è fondamentale.

Sicuramente sì, in questi casi lo è assolutamente. Credo anche che forse sia automatico, perché scegliere questo mestiere dovrebbe essere anche indice di curiosità.

Sì, però spesso e volentieri è una consapevolezza che si acquisisce con la maturità, magari quando si è piccoli questo ancora non si capisce. Per un interprete penso che lo sia ancora di più: se un interprete inizia subito ad approfondire, penso che sia molto più avvantaggiato rispetto a qualcun altro che inizia a farlo dopo. Poi è un cane che si morde la coda, perché magari troverà lavoro prima rispetto a chi invece non lo ha fatto…

Queste poi sono sempre situazioni da valutare caso per caso, non è automatico, però chiaramente la regola generale è che più si sa e meglio si può interpretare o tradurre. Se parlassimo la stessa lingua ma dicessimo cose diverse, non ci capiremmo lo stesso. Non si tratta solo di una questione linguistica, ma anche di contenuti e di conoscenza dell’argomento.

Anche di cultura, di conoscere anche l’origine di un paese oppure da dove viene la persona. Quando si parla di interpretare o tradurre due lingue diverse, non sono solo le due lingue, ma è tutto un mondo quello che ci si porta dietro.

Sicuramente anche la cultura, infatti è un’opera di mediazione, non soltanto un’opera di traduzione. La traduzione non esiste senza mediazione, non a caso il percorso non è inverso: si inizia con la mediazione e poi si va avanti per studiare o approfondire l’interpretariato o la traduzione. È un percorso sicuramente obbligato: non conoscendo la cultura di un paese, non si conosce nemmeno appieno la lingua, o meglio, non si sa trasmettere un messaggio. Questo mestiere è fatto di tante cose. Molto spesso chi non lo conosce o chi non è addentro tende a pensare che faccia tutto Google Translate oppure lo fa la app che mi parla e mi dice le cose in un’altra lingua. Perché, non si può fare così? Sì, liberissimi! Il problema è che il risultato non sarà lo stesso e alla fine non vi capirete.

Che era proprio l’obiettivo iniziale: cercare di capirsi.

Esatto, quindi l’aspetto umano non andrebbe assolutamente trascurato, oltre che l’aspetto culturale.

Ti ringrazio per aver partecipato a questa nostra iniziativa. Saluto tutti quanti, chi ci ha seguito. Buon pomeriggio a tutti.

Grazie mille e buon pomeriggio a tutti.

 

Il video integrale dell’intervista è disponibile su YouTube al link: https://www.youtube.com/watch?v=5cQUeO_0fS8 

L’iniziativa “CuoconA.I.R.”: ricette in dialetto e sottotitoli

WhatsApp Image 2020-04-16 at 11.55.44

Nei giorni del lockdown il direttivo dell’Associazione Internazionale di Respeaking onA.I.R. ha lanciato l’iniziativa “CuoconA.I.R.”.

L’idea è quella di coinvolgere chi ama cucinare nella realizzazione creativa di un breve video di 5 minuti nel quale prepara una ricetta e ne spiega la procedura nel suo dialetto. I partecipanti all’iniziativa dovranno inviare il video e la trascrizione in italiano all’indirizzo email info@respeakingonair.org. L’associazione si occuperà della sottotitolazione del video e lo pubblicherà sul canale YouTube “onA.I.R. Intersteno Italia” e sulle sue piattaforme social.

L’obiettivo è da un lato quello di coinvolgere i soci in un progetto divertente e creativo per diffondere la conoscenza del nostro patrimonio culturale, culinario e dialettale, dall’altro quello di incuriosire e invogliare nuovi potenziali soci a prendere parte alla promozione e alla diffusione della cultura dell’accessibilità e dell’inclusività delle persone svantaggiate a livello linguistico e sensoriale.

L’Associazione onA.I.R. è il gruppo nazionale italiano di Intersteno, la federazione internazionale per il trattamento dell’informazione e della comunicazione, e ha tra i suoi obiettivi generali la divulgazione della pratica della sottotitolazione in tempo reale e in differita, della trascrizione e della ripresa del parlato tramite la tecnica del respeaking (trascrizione in tempo reale del parlato tramite software di riconoscimento del parlato).

 

Per maggiori informazioni sull’Associazione Internazionale di Respeaking onA.I.R. (associazione no profit costituita nel 2012) si veda: http://www.respeakingonair.org.

Blockchain e criptovalute: quali sviluppi per il settore della traduzione?

Blockchain

Traduzione dall’inglese dell’articolo “Blockchain in the language services industry – A revolution not quite in the making” di Belén Agulló García apparso su Nimdzi: https://www.nimdzi.com/blockchain-language-services-industry/ 

Si sente parlare di blockchain e bitcoin da più di dieci anni ormai, ma la gran parte di noi comuni mortali fatica ancora a capire come funziona tutta questa tecnologia messa insieme, senza neanche pensare alle sue implicazioni per il settore di servizi linguistici. Proviamo a capirci qualcosa.

Cos’è la blockchain?

Questa tecnologia è nata a supporto dell’infrastruttura necessaria per le transazioni con le criptovalute come bitcoin o ethereum. La blockchain e il bitcoin sono stati creati da Satoshi Nakamoto (che è un nome falso). Nessuno sa chi in realtà si nasconde dietro a questa invenzione, ma Satoshi Nakamoto era il Bansky delle criptovalute nel 2008.

La blockchain [letteralmente “catena di blocchi”, N.d.T.] è un elenco di registrazioni o un registro. Questo registro è pubblico e permanente. Qualsiasi elemento di valore può essere trasferito da una parte all’altra e registrato, così da generare un sistema affidabile. I dati registrati non possono essere modificati o alterati poiché ciò vorrebbe dire modificare l’intera catena di blocchi, per questo motivo la blockchain è considerata sicura.

Queste informazioni memorizzate digitalmente sono chiamate blocchi. La banca dati peer-to-peer della blockchain è sincronizzata, decentralizzata, e distribuita. Non esiste copia cartacea della banca dati in nessun luogo specifico, come avviene con le banche dati tradizionali. Tutti gli utenti hanno lo stesso livello di privilegi nella rete. Ciò presenta un potenziale problema di scalabilità per la blockchain. Se la banca dati diventa enorme, saranno necessarie macchine più potenti e una quantità maggiore di energia per creare i nodi. Ancora non siamo arrivati a questo punto.

Criptovaluta: un esempio

Vediamo un esempio del principale settore che sfrutta la blockchain: le criptovalute.

Suzie vuole trasferire a Anthony 100 bitcoin. Ordina la transazione e questa viene registrata nella rete pubblica in modalità del tutto anonima. Gli utenti nella rete bitcoin non vedono il nome di Suzie e Anthony, ma la loro transazione è identificata da un codice unico, detto hash, che può essere tracciato. In seguito gli utenti della comunità bitcoin, detti miner, devono validare la transazione, ovvero verificare che non ci sia nulla di illegale, come ad esempio una doppia spesa. Doppia spesa vuol dire usare la stessa criptovaluta più di una volta, così da diventare dei potenziali cripto-milionari, ma il sistema non consente di farlo.

Una volta verificata la transazione, questa diventa un blocco. In seguito la comunità deve mettersi d’accordo sull’aggiunta del blocco al registro. Ciascun blocco di dati relativi alla transazione è “incatenato” all’ultimo blocco registrato. In seguito gli viene assegnato un hash crittografico, o firma digitale, in modo da collegare entrambi i blocchi e confermare l’integrità dei blocchi precedenti. In questo modo, la transazione tra Suzie e Anthony è registrata in modo affidabile, immutabile e permanente in questa banca dati pubblica, decentralizzata e aperta. Ciascun blocco ha una chiave criptata privata o password che è necessaria per accedere alle informazioni in quel blocco specifico. (…)

Esempi di utilizzo della blockchain

Quello delle transazioni con le criptovalute è attualmente il principale settore che sfrutta i vantaggi della blockchain, ma esistono altre applicazioni di questa tecnologia, come ad esempio gli smart contract.

Questi vengono eseguiti senza l’interazione umana al soddisfacimento di alcune condizioni o regole pre-programmate. Ciò consente di eseguire un contratto evitando il coinvolgimento di terze parti e impedisce alle parti di commettere frodi o modificare le condizioni una volta raggiunto l’accordo. Gli esempi di utilizzo degli smart contract sono infiniti. Ad esempio, nella catena di distribuzione questi contratti possono essere utilizzati per stabilire condizioni contrattuali specifiche trasparenti e disponibili per tutte le parti. Possono anche essere utilizzati per gestire i diritti di proprietà nel processo di distribuzione e per localizzare i beni e i prodotti. Una volta consegnate e verificate le forniture, il pagamento può avvenire automaticamente. Questo semplifica il processo ed elimina costi inutili.

Sono anche stati fatti dei tentativi per utilizzare la blockchain per le votazioni online, il che potrebbe essere una buona idea per coinvolgere un maggior numero di elettori. Ad esempio, nel 2018 la West Virginia ha offerto un sistema di voto elettronico basato sulla blockchain per le elezioni di medio termine. Le votazioni online erano state predisposte per i cittadini che vivevano all’estero, per l’esercito o per la marina mercantile. Tuttavia, la sicurezza suscita naturalmente preoccupazione in questo settore.

Con la tecnologia blockchain è possibile trasferire qualsiasi elemento di valore (valuta, beni o anche il voto), definito con il termine di nuovo conio “l’internet del valore”, in sicurezza da una parte all’altra.

La blockchain nel settore dei servizi linguistici

Cosa ha a che vedere la blockchain con il settore dei servizi linguistici? Alcune aziende sfruttano già questa tecnologia.

ONE HOUR TRANSLATION

One Hour Translation afferma di utilizzare già la tecnologia blockchain per condividere su richiesta i contenuti delle memorie di traduzione (TM), con lo scopo di migliorare i risultati della traduzione automatica neurale (NMT). In questo modo, il contenuto tradotto che può essere riservato sarebbe disponibile ai clienti a pagamento e la soluzione di traduzione automatica [MT, N.d.T.] sarebbe personalizzata in base alle necessità dei clienti. Un altro impiego di questa tecnologia da parte dell’azienda è la tracciabilità della qualità. Tutte le fasi del processo traduttivo sono registrate in un registro di metadati, come il nome, la data, la combinazione linguistica del traduttore, ecc. Poi, qualora vi fosse un problema di qualità, il cliente può avere accesso al blocco specifico in cui sono salvate le informazioni e verificare l’accaduto. L’azienda può anche decidere quali traduttori/revisori coinvolgere nei loro progetti sulla base di queste informazioni.

EXFLUENCY

Exfluency è un grande mercato basato sulla tecnologia blockchain. Non si tratta di un fornitore di servizi linguistici (LSP) di per sé, bensì si definisce un “mercato che facilita l’acquisto e la vendita della comunicazione multilingue”. Exfluency ha creato la propria Iniziale di Moneta Offerta o ICO (ovvero il proprio bitcoin) chiamata XFL. L’amministratore delegato, Robert Etches, è stato intervistato sul podcast di Globally Speaking (…) e ha affermato che Exfluency vuole essere una porta per la comunicazione linguistica, piuttosto che un guardiano. Exfluency ha fuso insieme tecnologia NMT e tecnologia blockchain, utilizzando la blockchain per diversi scopi:

1) eliminare gli intermediari, ovvero le agenzie di traduzione;
2) tracciare la qualità delle traduzioni e migliorarne l’affidabilità, in modo che chi acquista il servizio possa decidere quali linguisti assumere per i propri progetti;
3) semplificare i micropagamenti utilizzando una propria criptovaluta;
4) pagare i linguisti per il lavoro di correzione (o post editing) delle stringhe tradotte dalla traduzione automatica.

Exfluency afferma che i CAT tool [strumenti di traduzione assistita, N.d.T.] non saranno utilizzati in questo nuovo modello. I traduttori saranno pagati con token XFL per caricare i dati bilingue nel sistema. Una volta caricati, i dati bilingue appartengono alla comunità Exfluency, per cui possono essere utilizzati da tutti i traduttori. Inoltre i linguisti possono anche correggere o post-editare il contenuto generato dalla NMT qualora venisse loro richiesto, e saranno pagati con denaro fiat (ovvero dollari, euro o qualunque altra non-criptovaluta) per quel servizio. Secondo Etches, con questo modello “Vogliono riuscire a espandere quel mercato della [traduzione] da 50 miliardi di dollari a forse 75 miliardi.”

Altre aziende come Kolin stanno pensando a un modello simile: creare la propria ICO chiamata Kolins per pagare i traduttori per il lavoro svolto. Il risultato è un modello di crowdsourcing, poiché i traduttori sono volontari e vengono pagati in Kolins e non in denaro fiat. Kolin offre anche servizi professionali a prezzi diversi per i vari clienti.

I vantaggi della blockchain per il settore dei servizi linguistici

Riassumiamo cosa offre la blockchain al settore dei servizi linguistici:

Una rete distribuita peer-to-peer – Grazie a questo sistema, le terze parti che sono dotate di un server centrale con tutte le informazioni non sono più necessarie, quindi la comunità di traduttori può crescere senza bisogno di intermediari.

Decentralizzazione – Questo significa un maggiore livello di sicurezza in caso di disastro (come la distruzione di un server centrale o del computer). Sarebbe più sicura per i clienti e i traduttori, poiché minimizzerebbe il rischio di perdita dei dati.

Registro di informazioni non alterabile – Grazie alla fiducia riposta in un sistema blockchain, la comunità di traduttori sarebbe più affidabile e tracciabile.

Pensatelo come un intreccio di filigrana per tutte le fasi della catena di localizzazione – La blockchain esclude le agenzie o i linguisti imbroglioni che si servono di sistemi di qualità poco trasparenti, perché tutte le informazioni sono memorizzate e pubbliche.

È un’importante tecnologia da applicare alla gestione delle TM o della MT – La blockchain potrebbe potenzialmente risolvere i problemi di copyright relativi alla traduzione audiovisiva o letteraria. Una delle principali preoccupazioni in questi settori è come si utilizzano i CAT tool o anche la MT in un prodotto che genera diritti d’autore per chi svolge la traduzione. Con un sistema blockchain di TM o di MT, la titolarità di ciascuna stringa potrebbe essere tracciata, consentendo al soggetto di ricevere il pagamento per il suo contributo al testo audiovisivo o letterario. In questo modo il processo sarebbe più efficiente senza essere ingiusto nei confronti degli autori delle traduzioni.

Smart contract – Gli smart contract contribuirebbero all’eliminazione delle terze parti. Chi acquista un servizio di traduzione potrebbe automatizzare il flusso di lavoro con gli smart contract e rivolgersi direttamente ai traduttori professionisti.

Anonimizzazione delle “transazioni” – Sarà garantita la riservatezza delle transazioni.

Superamento dei limiti di pagamento – Se si effettuassero pagamenti in criptovalute non ci sarebbero le limitazioni dovute alle politiche bancarie o governative. Ma chi vuole essere pagato in criptovalute se il loro valore non è garantito da denaro fiat? Non siamo ancora a quel punto, ma è una bella idea per un’economia più globale.

Tenete d’occhio la blockchain

Per quanto la blockchain sia una tecnologia in fase embrionale nel settore dei servizi linguistici, possiamo comunque immaginare applicazioni molteplici e prospettive future.

Secondo Marco Iansiti e Karim R. Lakhani di Harvard Business Review, ci vorranno decenni per adottare la tecnologia blockchain. Inoltre, non vi sono ancora molti casi di successo, per cui è probabile che soltanto gli imprenditori più visionari (o chi vorrà scommetterci) abbracceranno per primi la rivoluzione blockchain nel settore dei servizi linguistici.

Il segreto, come per qualsiasi altro progresso tecnologico, sarà come coinvolgere chi è interessato, cioè i traduttori e i loro clienti, in questo nuovo modello. In che modo la blockchain è una soluzione migliore per tutti? Il settore dei servizi linguistici sta già attraversando una trasformazione dovuta alla MT e all’intelligenza artificiale. Forse la tecnologia blockchain sarà il collante che unirà tutte queste tecnologie così disparate, creando un ambiente nuovo e stimolante.

Quindi, d’ora in poi, fate anche voi la vostra parte!

“Trans-pretation”: il futuro dell’interpretazione simultanea è scritto?

Al convegno “100 years of Conference Interpreting” organizzato dall’Università di Ginvera, l’International Labour Organisation e l’AIIC, nella sessione dedicata al futuro dell’interpretazione simultanea, Carlo Eugeni ha lanciato la provocazione: “il futuro dell’interpretazione simultanea è scritto”.

di Carlo Eugeni

Telephone-interpreting

Respeaking

Partendo dal concetto di trans-pretation (Safar 2019), ossia l’ibridazione sempre più evidente e diffusa tra le forme di mediazione scritta (translation) e quelle di mediazione orale (interpretation), e passando per la sottotitolazione in tempo reale tramite respeaking, la prospettiva dell’interpretazione scritta pare meno assurda.

Per capirne meglio i dettagli, basta scomporre l’idea di interpretazione scritta nelle tre componenti hymesiane della traduzione: processo, prodotto e funzione. La natura del prodotto è l’unica che cambia perché il pubblico dovrebbe passare dal sentire l’interpretazione in cuffia al leggerla su uno schermo, come nel caso dei sottotitoli per non udenti offerti da Televideo e Mediavideo alle rispettive pagine 777.

La funzione rimarrebbe intatta, perché i sottotitoli svolgerebbero la stessa funzione traduttiva che svolge attualmente la voce nelle ricetrasmittenti, con décalage simile (si veda anche l’articolo di questo blog “L’interpretazione simultanea: origini, tecnologia e abilità dell’interprete”).

L’aspetto sul quale è interessante soffermarsi è il processo, molto simile a quello dell’interpretazione simultanea. Tra le tecniche usate per produrre sottotitoli in tempo reale, infatti, il respeaking consiste nell’ascoltare quello che dice l’oratore e, simultaneamente, ripeterlo o riformularlo oralmente a favore di un pubblico di sordi (nel caso della sottotitolazione intralinguistica). Grazie a un software di riconoscimento del parlato molto simile a quello che si usa per scrivere messaggi con la voce tramite smartphone, la voce del respeaker diventa testo, immediatamente visibile agli spettatori. A conferma della similitudine con la tecnica dell’interpretazione simultanea, i risultati del progetto LTA sulle competenze del sottotitolatore e la produzione di materiali didattici per la formazione (o autoformazione) del sottotitolatore in tempo reale e uno studio ancora in corso d’opera (Cosci, in stampa) che sembra confermare che le aree del cervello coinvolte nei due processi (resapeaking e interpretazione simultanea) sono le stesse così come la quantità di onde Alfa, Beta e Gamma, in linea con la Théorie du Sens.

Applicato alla conferenza in lingua straniera, questa tecnica è già stata sperimentata per tradurre oratori stranieri in contesti specifici (si vedano i progetti di onA.I.R. disponibili su www.respeakingonair.org) con un certo successo, confermato dalla soddisfazione degli utenti, che apprezzano in particolare la possibilità di riutilizzare i sottotitoli come appunti della conferenza e l’esperienza visiva di ricezione della traduzione.

Per quanto riguarda la formazione degli interpreti alla sottotitolazione nel momento in cui una tecnica del genere prendesse piede, si è già detto che le competenze dell’interprete e del respeaker sono molto simili. Tuttavia alcune differenze sussistono e richiedono una formazione specifica. Se ci sono alcune facoltà che si muovono in questo senso, la buona notizia è che il progetto LTA sta producendo materiali che saranno accessibili online e gratuitamente volti specificamente alla formazione e l’autoformazione del sottotitolatore in tempo reale.

Il take-home message è: “Don’t be afraid of technology. Give it a try and go written!”.

 

Informazioni sull’autore:

Carlo Eugeni è interprete, traduttore, respeaker, docente universitario, presidente del Comitato Scientifico di Intersteno e PhD con la prima tesi di ricerca sulla tecnica del respeaking per la sottotitolazione live. Attualmente partecipa al progetto di ricerca LTA (Live Text Access): http://ltaproject.eu.

“100 years of Conference Interpreting”: best tweets from Geneva, October 3-4 2019

20190724_093742

With special thanks to all conference interpreters from all over the world who have been in Geneva over the last few days to contribute to our profession with their speeches, questions, debates, ideas and insights!

Here is a collection of the best tweets from #Conf1nt100.

When the interpreting doesn’t work, the meeting doesn’t work. When the interpreting is reliable, the meeting works.

(Guy Ryder)

Did you know that simultaneous interpreting used to be called “telephone interpreting” in its early days? The first audio system was designed by IBM.

(Cyril Belange)

Interpreting is not so susceptible to automation as some suggest.

(Guy Ryder)

How will technology be used not just to enhance interpretation services but to change them? (…) We must ensure that the future of interpreting is what we wish it to be, not what others think it should be.

(Guy Ryder)

When the interpretation stops, discussions stop; if the interpretation is not there, the process grinds to a halt.

(Guy Ryder)

Interpreting is a human experience. It is. Technology makes it possible, but it remains a human experience. That is where its greatest value resides.

(Barry S. Olsen)

However incoherent or illogical they may be speaking in their own language, somebody in the booth somewhere is going to make sense of it.

(Guy Ryder)

Perhaps the sharpest weapon in any arsenal is a qualified professional interpreter.

(Uroš Peterc)

Why study the history of interpreting?

“Historia est magistra vitae.” Cicero

“What happened in the past can influence what is happening today. But what is happening today does not influence the past.” Jesus Baigorri

“Know your history, know your profession.” Me

(Barry S. Olsen)

Interpreting promotes democracy and equality, mitigating power differences.

(Jesús Baigorri)

What was initially considered impossible – listening to be speaker while simultaneously conveying what the speaker was saying in another language – was discovered to be possible after all!

(Rachel Farmer)

After WWII, Japanese was considered too distant a language from English to be interpreted simultaneously. Interestingly, simultaneous interpreting from Japanese was actually provided at the ILO as early as 1928!

(Rachel Farmer)

Simultaneous interpreting began at the United Nations while the Nuremberg Trials were still underway.

(Jesús Baigorri Jalón)

Nuremberg interpreters had to deal with linguistic issues like the “past tense” but above all, they had to handle a very strong emotional charge.

(Jesús Baigorri Jalón)

Jean Herbert was known to say, “interpreting can be divided into theory and practice. So, let’s focus on practice.” I can relate to that. Not to say that theory isn’t important, but I’m a practical guy. To the extent that theory informs practice, I’m all for it.

(Barry S. Olsen)

Apparently some interpreting users used to see it as magic… then it became a profession. (It’s still magic. We just know how the trick is done.)

(Jonathan Downie)

Japanese was thought impossible to simultaneously interpret, despite the fact it had been done already – I’m glad that there’s at least one Japanese in the room to have the honour to be here and to listen to unmissable speeches on interpreting.

(Rié Hiramatsu)

The subject of interpreting is structured into two main parts, theory and practice. And now that theory is done, let’s start with the practice.

(Jean Herbert)

Our profession won’t have a future if we don’t give it a past.

(Jesús Bairgorri Jalón)

Why do staff interpreters have a 50/50 male-to-female ratio, while there are three female interpreters for every male interpreter in the profession in general?

(Josh Goldsmith)

Everyone wants interpreters to be “faithful to the original speaker” – but everyone has a different definition of what this means!

(Jonathan Downie)

Use their terminology, not ours, and you get much better answers.

(Jonathan Downie)

Stakeholder expectations are not static.

(Jonathan Downie)

The better we understand client needs, the better we will know how they will expect interpreters to contribute to meeting a client’s needs.

(Jonathan Downie)

You need to practice as much as possible, because practice makes perfect, and you can only learn by doing.

(Pedro Luís Queirós Duarte)

A circular economy of good interpreters, where nothing is wasted because the student becomes the trainer and helps new students.

(Pedro Luís Queirós Duarte)

Written interpreting? Wow! That will kick the legs out from under the current paradigm.

(Barry S. Olsen)

The only people not happy with the prospect of interpreters doing live subtitling is… interpreters.

(Jonathan Downie)

If we don’t know where we come from, we can hardly know where we’re going.

(Jesús Baigorri Jalón)

Many technological controversies have brought about controversies.

(Jesús Baigorri Jalón)

Respeaking technology = live subtitling, involves listening & reformulating, then a software transcribes the output in written form. Technology engages the same area of the brain as simultaneous interpreting. Could  “written interpreting” be possible? Carlo Eugeni thinks so.

(Sylvie Nossereau)

The EU institutions work with 24 official languages, which means there are more than 500 language combinations. Interpreters play a key role contributing to peace and understanding.

(Juan Carlos Jiménez)

Multilingualism in Canada dates back to the Constitution Act of 1867, when French and English were both allowed and promoted in the Canadian Parliament. However, the shift from symbolic bilingualism to true bilingualism came 100 years later, with the introduction of simultaneous interpreting in the Canadian House of Commons.

(Matthew Ball)

Please note that the “term is International Sign, rather than International Sign Language or International Signs, this indicates that IS does not have full linguistic status but is a translanguaging practice”.

(Maya de Wit)

As interpreters, we have a bit of an identity crisis, because we’re always in the background.

(Uroš Peterc)

The European Parliament tested remote interpreting in November 2003 – the booths for the ten new member states hadn’t been built yet!

(Josh Goldsmith)

We have become completely anonymous non-beings, just voices… We are not just voices. We are part of the interaction.

(Barry S. Olsen)

Jesús Baigorri argues that younger people may be more accustomed to screens and more likely to adopt remote interpreting – but interestingly enough, in my research, colleagues adopting technologies tend to have many years of experience.

(Josh Goldsmith)

Alienation is the interpreter’s main fear – proximity is important in interpreting.

(Uroš Peterc)

The connection and the ability to bring people together give us sense of satisfaction and bring many people into the profession… We are not just voices.

(Barry S. Olsen)

As Professor Olsen says, interpreters are not just voices — remote interpretation should not further anonymise the people behind the booth (or screen).

(Interprefy)

We are still using a map of the brain created 100 years ago. 1993 was the first time a researcher recorded the brain activity of someone interpreting. A lot has been achieved since then, especially in terms of computer analysis, technique and sample size.

(Alexis Hervais-Adelman)

Interpreters’ brains, compared to those of non-interpreter bilinguals, change their configuration as a function of interpreting.

(Alexis Hervais-Adelman)

Interpreting is harder than “just” shadowing, as more brain areas are activated during the task due to the bilingual nature of the exercise.

(Alexis Hervais-Adelman)

Expertise modifies several areas of the brain. This is also true for interpreting, where processing capacity and control of attention seem to develop over time.

(Alexis Hervais-Adelman)

The right caudate nucleus changes its activity due to interpreter training, just as does for expert musicians and golfers.

(Alexis Hervais-Adelman)

With expertise, interpreters’ brains free up new resources to refine performance, analogous to patterns in professional golfers, chess players, and musicians.

(Alexis Hervais-Adelman)

“Inside the skull of every one of us, there is something like a brain of a crocodile” (Carl Sagan). Apparently, this primal brain is more activated than expected when interpreting.

(Alexis Hervais-Adelman)

When looking at brain maps recorded when participants interpret, we notice that most brain areas are activated. Being an interpreter is therefore much more than being an expert in languages, it is about being an expert in control.

(Alexis Hervais-Adelman)

Thanks to interpreting, our brains change. Our skills in other domains – like memory and attention – improve.

(Alexis Hervais-Adelman)

Being an interpreter is more than being an expert in language, it means being an expert in control. Interpreting is a task “involving all of the brain’s resources”. Interpreters’ brains are beautiful!

(Alexis Hervais-Adelman)

Neuroscientists gathered at the #Conf1nt100 at @FTI_UNIGE to explain why they are so interested in simultaneous interpreting: “it is the upper end of the language control spectrum: extreme language control”.

(Marzia Sebastiani)

German A interpreters working into a B language use anticipation more often than other A languages (but also make more mistakes when anticipating).

(Franz Pöchhacker)

Anticipation: a strategy used my many interpreters when they rely on context or world knowledge to produce the target language equivalent before it is uttered.

(Franz Pöchhacker)

Retour anticipation only helps if you have the expressive skills in your B language.

(Franz Poechhacker)

In a study, German A participants working into an English B had a significantly higher instance of successful anticipation than English natives working in the same direction, but only if they have adequate expressive skills in the target language.

(Franz Poechhacker)

Prediction helps us comprehend more rapidly. (…) So it stands to reason interpreters make predictions to understand the speaker’s message more quickly.

(Rhona Amos)

Interpreters predicted target words earlier than translators.

(Rhona Amos)

In multilinguals, all languages are activated at the same time. Co-activation works like a search engine – and sometimes, there are just too many tabs open!

(Laura Keller)

Our eyes may not reveal all of the things that can be revealed about this very complicated task of simultaneous interpreting.

(Laura Keller)

Becoming an interpreter is a great way of increasing your vocabulary.

(Laura Babcock)

How do interpreters manage their cognitive load?

– They anticipate

– They improve their memory, and

– They increase their lexical access

Insights from Laura Babcock

(Rachel Farmer)

Interpreters consider that being able to see the speaker is absolutely crucial to understand the speaker, but with the introduction of remote interpreting, this principle is often questioned.

(Eléonore Arbona)

Interpreters perceive gestures to be very important to understand the speaker’s meaning.

(Eléonore Arbona)

Few studies tackle the link between quality in interpreting and the ability to see the speaker. This means that we do not have any scientific proof to claim that seeing the speaker is necessary for interpreting.

(Eléonore Arbona)

I often gesture while interpreting in the booth and have seen other Southern European colleagues do so too. I definitely feel like I find the right words more easily.

(Nuria Campoy)

The décalage is the same for men and women, but it’s not the same for fast and slow speakers.

(Camille Collard)

Experimental researchers and corpus researchers should come together and complement one another to improve understanding of interpreting.

(Camille Collard)

Joindre le geste à la parole aide-t-il vraiment les interprètes à exercer leur métier? Cela reste à démontrer mais ça ne veut pas dire que ce n’est pas un plus en cabine.

(Eléonore Arbona)

Quality is almost always defined negatively: errors, disfluencies, etc. It is never defined positively in interpreting studies – only as what you shouldn’t do.

(Bart Defrancq)

We need to understand situational factors underpinning interpreter decisions better. That will be the added value of a human interpreter, compared to artificial intelligence.

(Ebru Diriker)

We still lack research on retour interpreting. Indeed, we know that interpreting into a B language is cognitively different than interpreting into a A language, but current cognitive models do not make this distinction.

(Bart Defrancq)

The brain centres interpreters use when working into their A language are not the same as the ones used when working in retour which should have implications for interpreting training.

(Maha El-Metwally)

Les aires du cerveau qui sont recrutées pour interpréter vers la langue B (retour) sont différentes des aires activées pendant l’interprétation vers la langue A.

(Bart Defrancq cite les recherches d’Alfonso García)

Ne serait-il pas dangereux de remettre le niveau de qualité attendue des interprètes dans les mains des utilisateurs?

(Toufic Abichaker)

Researchers can speak truth to power.

(Kilian G. Seeber)

On parle beaucoup de la qualité de l’interprétation, “mais est-ce qu’on mesure aussi la qualité de l’orateur?”

(Bart Defrancq)

I am very much a made, not born interpreter.

(Jacolyn Harmer)

English is everywhere, spoken by both native and non-native speakers of English. Speaking Globish creates another kind of identity and English now is a sine qua non for interpretation students.

(Jacolyn Harmer)

Nuremberg was a live curriculum lab to identify key skills and subskills of simultaneous interpreting.

(Jacolyn Harmer)

Alienation is the interpreter’s main fear.

(Uros Peterc)

Adoption of technology is the newest change in the interpreting classroom.

(Jacolyn Harmer)

Tomorrow’s human interpreters will engage in human-machine interaction thanks to artificial intelligence designed to support the human interpreter.

(Jacolyn Harmer)

There are no shortcuts.

(Jacolyn Harmer)

Interpreter training can be supported by research and new technology.

(Jacolyn Harmer)

Consec and sim in courtrooms, sometimes remote. Same for medical interpreters. Cinderella has long since joined her sisters at the ball.

(Jacolyn Harmer)

Why do we continue doing consecutive, when we could do sim-consec?

(Marie Diur)

Interpreters won’t be replaced by technology but they will be replaced by interpreters who use technology.

(Marie Diur and Lucía Ruiz Rosendo)

Not all natives have an A language.

(Nathalie Loiseau)

Interpreters will not be replaced by technology, but interpreters using technology will replace those who don’t use it.

(Marie Diur)

Universities need to go beyond teaching the technologies of today and teach the technologies of tomorrow: Deep learning, neural networks, artificial intelligence, and more.

(Claudio Fantinuoli)

Someday interpreters will be confronted with this AI interpreting. It’s not for tomorrow yet, but the day after tomorrow.

(Claudio Fantinuoli)

How help novice interpreters making the leap from graduation to a successful career. In a way it is a mission impossible. Almost impossible to deliver turnkey interpreters ready for the booth as from day 1.

(Jacolyn Harmer)

Given low accreditation rates, we are under an obligation to make sure our future graduates are specialists, not generalists.

(Jacolyn Harmer)

AI tech is invading the field of interpreters. Make it a valuable helper or it might turn into your worst competitor! We need to develop informed knowledge on deep learning and neural networks.

(Claudio Fantinuoli)

You can’t prepare students for machine interpreting. You can, however, make them aware of what it is. We will arrive at a stage where we will see a combination of human and machine interpreting. We will need trained interpreters to support clients.

(Claudio Fantinuoli)

It is insufficient to say: interpreting is so complex, a machine cannot do it. We live in a knowledge society and our profession needs knowledge about this topic too. This is a tough one for us, I know. At university we need broader approach than the institutions.

(Claudio Fantinuoli)

AI interpreting could be an aid in certain circumstances and actually expand the use of interpretation. Do we want access to languages and communication to be elitist or accessible to all?

(Sarah Hickey)

Don’t call speech-to-speech translation “machine interpretation.” It isn’t. AI does not interpret language, it crunches data with algorithms and produces results, the interpretation of which is left entirely up to the user.

(Barry S. Olsen)

Could one day technologies (speech-to-text + text-to-text + voice synthesizers) combine to produce automatic interpreting? Machine translation is here, how long till machine interpreters? We need to keep an eye on the developments and stay up to date.

(Sergei Chernov)

Multilingualism is part of our DNA. Multilingualism is not about officials or politicians speaking many languages but about all citizens being able to use their own language and we EU interpreters will make it understandable to all others!

(Hernandez-Saseta)

We as interpreters see machine/AI interpreting as a threat, society might well see it as an opportunity. It is coming anyway and it will influence client expectations. This is about much more than conference interpreting, about other uses too.

(Claudio Fantinuoli)

C’est quoi le multilinguisme ? C’est pouvoir s’exprimer dans sa langue maternelle et être interprété par des interprètes (ce n’est pas baragouiner dans plusieurs langues).

(Javier Hernandez-Saseta)

Thank God for those who are mad who protect us from those who are too wise.

(Christopher Thiéry)

Everything that can happen with technology doesn’t.

(Christopher Thiéry)

The future of interpreting at European Parliament interpreters may include:

– Augmented reality

– Voice-activated terminology searches and live transcription

– Captioning of live debates at meetings

(A. Walter Drop)

Our interpreters will require the right skills to do their job well in a changing environment. Our most immediate task is to help interpreters adapt to the changes we see.

(A. Walter Drop)

Let’s be controversial. Let’s be troublesome.

(Troblesome Terps)

Whenever there has been a significant change in society, interpreters have been there.

(Barry S. Olsen)

Interdisciplinarity is an act of improvisation. I can’t think of any better preparation for interpreting than madness and improvisation.

(Interpreter History)

Remote is already a reality in the private market. And it works. It allows language access. There is a lot of useful information out there.

(Barry S. Olsen)

It is not the only role – or the primary role – of academic research to produce only the findings that are in the interest of the profession. Academic research might go against the interests of the profession or what the profession wants to hear.

(Carmen Delgado)

L’apprentissage de la consécutive reste important aujourd’hui, même si on est peu ou pas amené à la pratiquer professionnellement: elle sert à l’interprète à analyser le discours.

(Marie Muttilainen)

Sometimes we use the wrong technology just because we feel the pressure. Instead, we need to sit in the driver’s seat. Otherwise, it will be too late, and we’ll see a tsunami – whether we like it or not, and whether the technology is ready or not.

(Claudio Fantinuoli)

Attention à la tendance de vouloir rédiger des textes de manière à ce qu’ils soient facilement traduis par des machines. Les orateurs doivent avoir la liberté de s’exprimer comme ils le veulent.

(Marie Muttilainen)

If you make a mistake in a two-day conference, nobody notices. If you make a mistake in a 15-minute speech, game over.

(Uroš Peterc)

I’m quite optimistic about the future of conference interpreting. But if you have a tsunami, you have an alarm. You know something is happening, and you can react and prepare.

(Claudio Fantinuoli)

How can an employer judge an interpreter who is working behind a screen and who is unknown to them in real life? How can employers assess the reputation of an interpreter working remotely?

(Marklen Konurbaev)

My job as Chief Intepreter is to sell excellence.

(Marie Diur)

There’s no point in doing bad interpreting – we might as well not interpret at all.

(Alexander C. Gansmeier)

We mustn’t be driven by technology. We have to drive technology.

(Claudio Fantinuoli)

It’s all about change, all the time. Technology is helpful but also a disruptor, which is good. And remember that conference interpreting is not interpretation, it is a very specific job.

(Uroš Peterc)

L’interpretazione simultanea: origini, tecnologia e abilità dell’interprete

Simultanea

Dopo aver parlato di interpretazione consecutiva (“L’interpretazione consecutiva: 5 miti da sfatare”), di chuchotage (“Chuchotage”) e della moltitudine di situazioni che richiedono all’interprete una flessibilità che va oltre le competenze tecniche (“Il lavoro dell’interprete: una professione, molteplici contesti”), presentiamo la modalità attualmente più standard di interpretazione di conferenza: la simultanea.

Le origini e la tecnologia

Prima del 1945, la modalità di interpretazione più utilizzata nelle conferenze internazionali era senza dubbio la consecutiva. Questa tecnica di traduzione orale risolveva i problemi di comunicazione tra i parlanti di lingue diverse, ma richiedendo l’alternanza dei turni tra gli oratori e gli interpreti, era spesso causa del lungo protrarsi degli eventi, la cui durata si estendeva da molte ore a più giornate.

Come illustravamo nell’articolo “I primi interpreti della storia”, il Processo di Norimberga fu il momento storico che segnò la svolta nell’interpretazione di conferenza. Il Tribunale Militare Internazionale decise che i criminali di guerra dovevano ricevere un opportuno, equo e rapido processo. Per garantire ciò era necessario che si potessero esprimere ciascuno nella propria lingua e che si adottasse un sistema di traduzione più veloce di quello allora più diffuso. Serviva una squadra numerosa di interpreti che fosse in grado di coprire tutte le combinazioni linguistiche presenti nello scambio comunicativo tra giudici, testimoni, avvocati, pubblici ministeri e giornalisti, nonché una tecnologia che consentisse agli interpreti di velocizzare il loro compito.

Così, il colonnello americano e interprete Léon Dostert propose l’interpretazione simultanea e formò un’équipe di 100 interpreti per abituarli a tradurre oralmente in tempo reale i discorsi spontanei dei partecipanti attivi ai processi. Ciò gli fu possibile grazie alla tecnologia dell’IBM, che aveva acquistato il sistema di interpretazione simultanea telefonica brevettato nel 1921 da Alan Gordon Finlay ed Edward Filene (fu lo stesso Filene ad utilizzare per primo il termine “interpretazione simultanea” nel 1925). La stessa strumentazione fu utilizzata dagli interpreti della Lega delle Nazioni, con la differenza fondamentale che gli interpreti traducevano i discorsi in anticipo per poi leggerli al microfono coprendo la voce dell’oratore. Gli interpreti del Processo di Norimberga avevano due compiti: tradurre simultaneamente “a vista” i documenti scritti e interpretare i discorsi spontanei dei partecipanti attivi ai processi. Allora erano in grado di interpretare a una velocità di 60 parole al minuto, per cui al sistema di trasmissione del suono dotato di console, cuffie e microfono dal lato interpreti, e a quello di ricezione del suono all’orecchio degli ascoltatori, si aggiungevano le luci dal lato oratori: la luce gialla indicava di rallentare, la luce rossa di fermarsi per consentire agli interpreti di recuperare le parti mancanti. Gli stessi interpreti protagonisti del Processo di Norimberga furono successivamente impiegati alle Nazioni Unite.

Il sistema classico di interpretazione simultanea per grandi conferenze internazionali o per ampi gruppi di partecipanti richiede: un sistema di trasmissione del suono con una cabina insonorizzata (in modo da favorire la concentrazione degli interpreti) contenente una console alla quale sono collegate delle cuffie (per consentire all’interprete di ascoltare la voce dell’oratore che parla al microfono della sala) e un microfono (al quale l’interprete traduce), e un sistema di ricezione del suono costituito da ricevitori e cuffie senza fili da cui il pubblico ascolta la voce dell’interprete, selezionando il canale corrispondente alla lingua di interesse. Per scrupolo, specifichiamo che servono almeno due console per cabina, ciascuna dotata di cuffie, microfono e comandi per l’accensione e lo spegnimento del microfono, la regolazione del volume, il cambio del canale della lingua ecc. (per approfondire, si veda: https://www.interpretetraduttricesimultanea.com/Interpretazione%20simultanea.html). Questo sistema con la cabina fu utilizzato per la prima volta nel 1933 in occasione della XIII sessione del Comitato Esecutivo del Comintern.

Le abilità dell’interprete  

Lo svolgimento di un compito così complesso di traduzione orale in tempo reale da una lingua all’altra richiede all’interprete, oltre alle elevate competenze linguistiche, un lungo percorso di studio e di pratica professionale per sviluppare ottime capacità di ascolto, concentrazione, comprensione, analisi, rielaborazione e traduzione rapida del messaggio originale. A queste fasi simultanee dell’interpretazione si aggiunge la memoria a breve termine: per elaborare il messaggio, l’interprete necessita di qualche secondo di décalage, ovvero di scarto temporale tra l’ascolto del messaggio e la produzione della traduzione. Durante il décalage interviene la memoria a breve termine, che permette all’interprete di memorizzare le informazioni momentaneamente tralasciate per restituirle nella fase di resa, senza tradurre le parole, bensì interpretando il messaggio. Nel frattempo, l’interprete continua ad ascoltare l’oratore e mentre traduce si prepara alla frase successiva.

Le varie ricerche sull’attivazione delle aree del cervello sottoposto all’attività di interpretazione simultanea hanno scoperto che non vi sono aree specifiche che rendono gli interpreti simultaneisti soggetti “anomali”, bensì il cervello è capace di coordinare rapidamente più aree che normalmente svolgono attività generali. L’area di Broca partecipa alla produzione del linguaggio, è coinvolta nella memoria a breve termine, nell’abilità di ragionamento e nel pensiero astratto ed è legata alle aree vicine responsabili della comprensione e della produzione del linguaggio; il corpo striato è composto dal nucleo caudato e dal putamen, due aree che partecipano a compiti complessi come l’apprendimento, la pianificazione, le capacità decisionali e il movimento.

Ora, la prossima volta che vi capiterà di ascoltare dei simultaneisti, non chiedetevi come facciano a tradurre così velocemente coprendo la voce di chi parla: l’interpretazione simultanea è un lavoro e una professione che non si improvvisa, ma si apprende con un arduo percorso di pratica e di studio che non finisce mai, e soprattutto con una lunga esperienza sul campo.