20 AOÛT 2019 | BON POUR LA TÊTE
À la fin de l’année dernière, le programme DeepL a, grâce à l’intelligence artificielle (IA) et à l’apprentissage profond (deep learning), traduit en une douzaine d’heures seulement un ouvrage de théorie informatique de 800 pages.
S’il est légitime de s’interroger à cette occasion sur la possible concurrence entre l’homme et la machine sur le marché du travail intellectuel (comme on l’a déjà fait dans d’autres secteurs d’activité), le discours médiatique est très vite emphatique dès qu’il s’agit de relayer les avancées de l’IA. En l’occurrence, on a pu parler d’une «grosse raclée», expression qui préfère souligner la menace plutôt que l’exploit technologique, comme s’il était plus important de souligner la concurrence entre les traducteurs humains d’un côté et les concepteurs du programme de l’autre, que de suggérer que l’humanité pourrait marquer là un point collectif.
Ailleurs, sous le titre Traduction automatique, robots écrivains… voilà la littérature du futur! s’imagine un futur de plus en plus proche où, les humains étant dépossédés de leur créativité, l’otium studiosum propice à la traduction de la poésie ou à l’écriture des romans céderait sa place au désœuvrement et à la consommation passive des chefs-d’œuvre des IA. Et inversement, l’appel à la sobriété des spécialistes de l’IA eux-mêmes semble être devenu un genre en soi.
Les universitaires spécialistes des littératures étrangères sont, entre autres, des traducteurs. Nous avons dans notre cursus été formés à la traduction littéraire (à côté, et c’est important, d’autres pratiques, comme l’histoire culturelle ou le commentaire de texte); nous enseignons d’une manière ou d’une autre la traduction, nous publions des traductions sous une forme ou une autre, et c’est une activité que nous pratiquons aussi pour le plaisir.
Mais si nous sommes des professionnels de l’écrit, nous ne sommes pas, pour la plupart, des spécialistes de la traduction automatique. Une partie de l’inconfort lié à l’IA vient sans doute de cette relation asymétrique : le robot s’invite dans le champ de compétence d’experts humains et semble y exceller, alors que les experts humains du domaine concerné se sentent, eux, souvent incompétents pour parler du robot. Dans ce cas, l’IA est pour eux une boîte noire.
C’est cette relation ambiguë entre le traducteur et l’IA traductive que je voudrais explorer ici.
Trois raisons de s’inquiéter
Le traducteur littéraire est un professionnel de l’écrit parmi d’autres, et un bon point de départ pour comprendre de quoi les professionnels de l’écrit ont peur est l’article du Guardian, paru en février dernier, où Hannah Jane Parkinson décrit le frisson qui l’a saisie quand le logiciel expérimental GPT2 a composé un article de presse complet sur la base d’un paragraphe qu’elle avait écrit. Sa première réaction est ainsi:
(a) it turns out I am not the unique genius we all assumed me to be; an actual machine can replicate my tone to a T; (b) does anyone have any job openings?
(a) Il semblerait que je ne sois pas, contrairement à ce que nous croyions tous, un génie unique: une simple machine peut reproduire mon style à la lettre; (b) est-ce que quelqu’un recrute?
- Le point (a) décrit une blessure narcissique: alors qu’on admet traditionnellement que la créativité stylistique (le ton, le style) définissent des individualités littéraires, la machine (qui n’a a priori pas de personnalité) peut émuler assez facilement ce genre de qualités; on retrouve là la crainte du «chômage créatif» exprimée dans l’article de Marianne cité plus haut.
- Le point (b) évoque un chômage beaucoup plus littéral: les performances impressionnantes du robot-écrivain en font un candidat viable pour remplacer un certain nombre d’acteurs humains du secteur de l’écrit – journalistes, traducteurs ou écrivains.
- Il existe, sur le cas de GPT2, un troisième problème (c), auquel H.J. Parkinson consacre la seconde moitié de son article: celui des fake news, puisque l’IA forge complètement ses citations et ses analyses. GPT2 sait écrire en anglais non seulement correctement, mais en reproduisant des habitudes stylistiques, ce qui est une des compétences de la journaliste; en revanche, GPT2 ne sait pas vérifier ses sources et n’a pas de déontologie, ce qui sont d’autres compétences de la journaliste.
Pour résumer: l’activité de la journaliste met en œuvre un ensemble de compétences à des niveaux divers (linguistique, stylistique, cognitif, éthique), et l’IA est (très) performante sur certaines d’entre elles (mais pas toutes); d’où la crainte, en partie justifiée, d’une concurrence créative et économique.