par Merten, Pascaline
Référence Traductologie de Plein-Champ (19 octobre 2019: Bruxelles, ULB)
Publication Non publié, 2019-10-19
Communication à un colloque
Résumé : Depuis deux ans, on ne parle que d’intelligence artificielle, de réseaux de neurones, d’apprentissage profond et de traduction neuronale. Dans le monde la traduction, ce qui était un sujet de crainte ou de rejet est devenu matière à engouement. Le grand public découvre le changement radical opéré par GoogleTranslate en 2016 et, en août 2017, DeepL se révèle d’emblée comme le meilleur système généraliste. La TA et la post-édition sont devenues incontournables et font partie du référentiel de compétences du label EMT.Est-ce que la traduction automatique neuronale (NMT) signe la fin de la « biotraduction », ou en tout cas de certaines formes de traduction, les moins créatives, ou est-ce qu’on assiste à la flamboyance d’un nouvel et non éternel été de la TA ?Nous ne prétendrons pas prédire le futur, mais un retour sur l’évolution de la TA permettra à tout le moins de situer les va-et-vient de la TA et de sa perception dans sa dimension technique et historique.On fait remonter la traduction automatique à 1949, quand Warren Weaver publie son Memorandum. Ceci dit, des systèmes automatisés avaient été développés auparavant, et l’idée de dépasser les barrières linguistiques sans intervention humaine a jalonné l’histoire de la pensée linguistique occidentale, notamment dans la quête de « langues parfaites ». Les propositions de Weaver paraissent réductrices, mais l’époque était à l’optimisme et le premier prototype russe-anglais, sous la direction de Leon Dostert, en 1954, suscite l’engouement. Pourtant des chercheurs avaient d’emblée mis en garde contre les limites intrinsèques de la TA et suggéré de faire de la pré-édition et de la post-édition.La TA connaîtra son premier hiver en 1965 avec le rapport ALPAC qui met fin au financement par le gouvernement américain. Les recherches continuent néanmoins et des systèmes à base de règles linguistiques, de transfert ou à interlangue, fleurissent dans les années 1980. Mais, si le défi intellectuel de modéliser les langues est passionnant, il débouche rarement sur des applications utilisables à grande échelle.Les années 1980 voient aussi fleurir la micro-informatique : le traducteur ne traduit plus un document, il traite un fichier. Toutes ces données constituées en corpus viendront sous-tendre la TA basée sur les données, statistique d’abord (Koehn et al. 2007), neuronale ensuite (Wu et al. 2016). L’intelligence artificielle, qui hibernait (LeCun 2017), renaît avec les systèmes neuronaux et à apprentissage. Pour le grand public, ce sont les super-ordinateurs qui gagnent au jeu de go, c’est la robotique, ce sont les « intelligences artificielles » qui envahissent notre quotidien et menacent nos emplois. En coulisse, c’est en 2014, un système neuronal à apprentissage profond qui gagne haut la main à un concours de reconnaissance d’images.Est-ce que nous sommes arrivés à la fin de l’histoire de la TA ou vivons-nous une de ses plus belles saisons, avant qu’une autre technique ne repousse encore les limites ? Après tout, nos étudiants sont nés dans un monde d’objets numériques et de réseaux sociaux. Le modèle linaire de la traduction a cédé la place à un modèle distribué et collaboratif. Le paradigme technique a certes évolué, mais c’est aussi notre perception, notre acceptation, notre rapport à la machine qui a changé.