- FORUM
-
LE 29 NOVEMBRE 2018
- UDEMNOUVELLES
Par Sylvie Vandaele, professeure titulaire au Département de linguistique et de traduction
La traduction automatique est des plus complexes. Déjà dans les années 50, elle constituait un des enjeux stratégiques de la guerre froide. Si elle se révèle décevante dans ses premiers avatars, elle ne cesse de progresser. Puis les réseaux neuronaux et l’apprentissage profond (deep learning) se mettent de la partie et, en 2016, Google met en ligne une nouvelle version de son système de traduction automatique, désormais fondé sur les réseaux neuronaux. En 2017, une société allemande (Linguee, rebaptisée DeepL) crée la surprise en concevant un système qui est rapidement salué à la quasi-unanimité comme étant le meilleur du monde.
L’Université de Montréal, chef de file en matière de traitement automatique des langues, a de quoi se réjouir: l’ouvrage de référence de Yoshua Bengio, Ian Goodfellow et Aaron Courville, Deep Learning, a été traduit sous le titre L’apprentissage profond en un temps record, dans le cadre d’une collaboration entre DeepL et l’entreprise Quantmetry. Il n’en fallait pas plus pour que certains médias annoncent la mort du traducteur. En tout cas, selon Nicolas Bousquet, directeur scientifique de Quantmetry, peut-être pas celle des traducteurs littéraires, mais à coup sûr celle du traducteur des «notices d’aspirateur».
Cette vision réductrice et choquante n’est pas partagée par l’Ordre des traducteurs, terminologues et interprètes agréés du Québec ni par les professionnels de la langue. Tout d’abord, elle ne rend pas compte de la diversité des situations et des pratiques; elle repose sur un lieu commun opposant la littérature et «le reste», comme si, entre la notice d’aspirateur et la littérature, il n’y avait rien et comme si les écrits scientifiques, voire techniques, n’étaient pas des produits de la culture soumis à de multiples paramètres. Ensuite, elle laisse entendre que les résultats sont fiables à cent pour cent.
Les chercheurs eux-mêmes sont pourtant prudents, car ils reconnaissent que certaines dimensions échappent encore à la machine (traitement des références extralinguistiques, éléments de syntaxe et de cohésion, etc.).
Quelques pistes de réflexion
En premier lieu, la validation de la traduction par un humain compétent reste nécessaire. Les corpus servant à l’entraînement des machines constituent la clé de la réussite de l’automatisation: ils doivent être vastes et de grande qualité. Or, les connaissances et les langues évoluent, il faut donc continuellement alimenter la machine en corpus pertinents.
Par ailleurs, l’intelligence artificielle offre une solution de traduction calculée à partir de corpus: en pratique, de nombreux paramètres issus de la situation de communication et interférant avec la fonction du texte imposent souvent de s’en écarter (lectorat cible, diatopie, particularités locales, préférences des clients…). De ce fait, la pression sur les compétences humaines change: elle ne diminue pas, elle augmente. D’une part, valider ou invalider une proposition de traduction exige de vastes connaissances, tant langagières que conceptuelles, et, d’autre part, les problèmes non résolus par la machine sont les plus complexes.
Les employeurs et donneurs d’ouvrage ne devraient donc pas commettre l’erreur de penser que la montée en puissance de l’intelligence artificielle est l’occasion rêvée de tirer vers le bas les salaires ou les tarifs des travailleurs autonomes. Le gain de temps peut diminuer considérablement le coût de la traduction d’un ouvrage, mais les heures passées à «postéditer» ou réviser convenablement valent de l’or. Autrement dit, la nature des tâches change, mais les compétences requises se complexifient. Cela est sans doute totalement contre-intuitif pour qui ne traduit pas, mais c’est bien le cas.
Par conséquent, la formation des traducteurs pose un défi, car il leur faut se former à une manière de penser qui s’écarte des automatismes et des idées reçues sur le passage d’une langue-culture à l’autre; bien plus qu’une question de langue, il s’agit de maîtriser les multiples dimensions de la communication. Les enseignants devront se pencher sur les aménagements à apporter à la formation, cela ne fait aucun doute, notamment en matière d’évaluation des compétences.
Bien sûr, il faut préparer les étudiants à l’usage des outils informatiques, mais le jeu se joue avant tout sur le plan de la cognition et des savoirs.
Une hypothèse intéressante à suivre, soulignée par Yoshua Bengio et ses collègues dans le contexte de la traduction de leur ouvrage phare en français, est la suivante, et nul doute que le Québec y sera sensible: on pourrait assister à un regain d’intérêt pour l’usage des diverses langues du monde, dont le français, dans les sciences et les techniques.
Paradoxalement, l’intelligence artificielle pourrait donc signer un affaiblissement de l’hégémonie de l’anglais. On assisterait alors, au lieu de la mort annoncée du traducteur, à une envolée de la traduction donnant accès à des connaissances issues de langues diverses et variées, les professionnels maîtrisant les arcanes tant langagiers que technologiques, continuant d’offrir des services bien ciblés à une clientèle exigeant une haute qualité.
Ce serait l’occasion, pour l’expertise canadienne, et tout particulièrement québécoise, en matière de traduction professionnelle, de conserver un leadership qui fait l’envie de bien des concurrents et de résister aux attaques de la mondialisation, qui pourrait entraîner la profession dans une spirale négative.
Car ne nous méprenons pas: ce qui menace le plus le traducteur n’est pas l’intelligence artificielle, car il saura s’y adapter et la prendre en main, c’est plutôt la pression à la baisse sur la rémunération suscitée par la concurrence internationale et alimentée par nombre d’idées reçues sur l’opération de traduction, dont la complexité est encore largement sous-estimée par le public.