Introduction : La traduction à l’heure de l’intelligence artificielle
Il y a quelques années, fin 2016 plus précisément, l’essor de l’intelligence artificielle et l’application des réseaux de neurones artificiels (deep learning) au domaine du traitement automatique du langage (TAL) marquaient un tournant technologique dans le secteur des services langagiers. Aujourd’hui, face à la demande croissante en services de post-édition (PE)1 de traduction automatique (TA), particulièrement dans le secteur de la traduction professionnelle (ELIS Research, 2023)2, les outils de TA neuronale font désormais partie intégrante du poste de travail des traductaires3 (Martikainen, 2022). Pourtant, selon la grande majorité des spécialistes en la matière et malgré des progrès impressionnants, les moteurs actuels de TA sont loin d’être parfaits (Moorkens et Guerberof-Arenas, 2024 ; O’Brien, 2022 ; Rios et al., 2023) et leurs performances sont loin d’égaler ou de surpasser l’humain (Grass, 2022 ; Loock et Léchauguette, 2021 ; Moorkens et al., 2024 ; Poibeau, 2022).
Il a notamment été quantitativement démontré que les sorties de la TA neuronale, même après post-édition, se révèlent moins créatives que les propositions de traductaires professionnels : « [T]he translators in HT provide a more novel/flexible translation, less constrained by the MT output, but also with fewer errors. » (Guerberof-Arenas et Toral, 2022 : 207) [En traduction humaine, les traductaires produisent des traductions plus novatrices et flexibles qui sont moins contraintes par la sortie de la traduction automatique et qui contiennent également moins d'erreurs.] En effet, d’après certaines études, en passant par le filtre de la TA, la post-édition semble entraver les processus cognitifs à l’œuvre en traduction et briderait l’élan créatif des traductaires, voire les induirait davantage en erreur, comparativement à la traduction humaine (Grass, 2022 ; Guerberof-Arenas et Toral, 2022 ; Schumacher, 2023). D’autres travaux s’attachant à examiner les effets de la traduction automatique sur les éléments textuels ont même montré que la TA laisse des traces perceptibles dans les textes. L'utilisation d’outils de TA neuronale entraînerait notamment une réduction de la diversité lexicale par rapport à la traduction humaine, qui se manifesterait par une simplification et une standardisation accrues en langue cible (Loock, 2019). Les traductions humaines seraient ainsi plus riches sur le plan lexical, mais également sur le plan syntaxique (Castilho et Resende, 2022 ; Schumacher, 2023). Ces phénomènes sont observés non seulement dans les traductions automatiques brutes, mais aussi après intervention humaine en post-édition (Martikainen, 2023 ; Schumacher, 2025 – à paraître ; Toral, 2019). D’aucuns évoquent même un appauvrissement lexical, syntaxique et général en langue cible (Moorkens et Guerberof-Arenas, 2024 ; Toral, 2019 ; Vanmassenhove et al., 2021).
Tout récemment, la combinaison des technologies d’IA générative et de grands modèles de langues (LLM – Large Language Models)4 a conduit à l’émergence de nouveaux outils, tels ChatGPT5, Mistral6 ou Gemini7. Accessibles gratuitement, ces chatbots offrent aujourd’hui la possibilité de combiner, dans une même interface, TA, post-édition et reformulation pour des résultats impressionnants, mais parfois très peu fiables (Bang et al., 2023). Se situant dans la continuité des défis posés par la TA neuronale, les enjeux de cette nouvelle conjoncture interrogent, une fois de plus, l’avenir tant de la traduction professionnelle que de l’enseignement de la traduction (Ayvazyan et al., 2024). Étant donné que ces puissants outils sont déjà accessibles librement, il est crucial de susciter et d’encadrer leur usage informé et raisonné, tout en continuant à démystifier l’IA (Moorkens, 2018) auprès des futures générations de traductaires qui, on le sait, sont particulièrement sensibles au discours marketing dominant qui a tendance à embellir la réalité et à surévaluer les performances de ces technologies (Loock, 2019 ; Rossi, 2019).
Il semble, dès lors, impérieux de mener des recherches permettant de décrire et d’appréhender ce contexte et ses enjeux, et de les intégrer de façon pertinente aux enseignements afin de former des traductaires en phase avec l’évolution de leur pratique et capables de comprendre les multiples dimensions de ces développements. C’est dans cette perspective que s’inscrit le projet européen LT-LiDER. Acronyme de Language and Translation– Literacy in Digital Environments and Resources, LT-LiDER est un partenariat de coopération du programme Erasmus + entre plusieurs institutions d’enseignement supérieur : les universités de Barcelone (UAB), Dublin (DCU), Cologne (TH Köln), Vienne, Grenoble Alpes (UGA), du Pays basque (EHU) et de Gröningen (RUG). Ce projet européen d’une durée de 36 mois (décembre 2023 – novembre 2026) vise à actualiser l'enseignement des langues et de la traduction en mettant l’accent sur l’IA, sur la culture et la maîtrise des données (data literacy), sur des éléments issus du traitement automatique du langage, sur les technologies de la parole et sur l’éthique des technologies. Les contributions visées se situent tant au niveau théorique qu’au niveau pratique, puisque des applications scénarisées seront proposées. S’appuyant sur des projets antérieurs tels que MultiTraiNMT (Kenny, 2022) ou DataLitMT (Hackenbuchner et Krüger, 2023), ce projet implique notamment la création de ressources pédagogiques pertinentes et innovantes afin d’accompagner l’intégration de l’IA et de la culture des données aux offres de formations. Pour parvenir à ces fins, l’une des premières étapes est la conduite d’une série d’entretiens avec les principaux acteurs et actrices du domaine.
Dans cet article, nous présenterons une partie des résultats préliminaires en proposant le compte rendu de deux de ces entretiens pour lesquels nous nous sommes attachés à recueillir le point de vue de deux spécialistes en traduction concernant les évolutions et les besoins actuels dans le secteur des services langagiers, tout en leur demandant de contextualiser leur expérience. La liste exhaustive des questions posées lors de ces entretiens figure en annexe 1.
Nous détaillerons les objectifs, ainsi que les modalités de déroulement des entretiens sur lesquels repose cet article. Nous présenterons ensuite les deux spécialistes interviewés avant de résumer les résultats de l’analyse de leurs propos qui a permis d’une part, de mettre en évidence les atouts et les enjeux de cette mutation technologique et, d’autre part, de rendre compte de leurs besoins et attentes en vue de l’actualisation des programmes de formation proposés aux futures générations de traductaires.
Les entretiens
Objectif et format
Cette série d’entretiens (28 au total) vise à recueillir des informations et des retours d'expérience auprès des principaux acteurs et actrices du domaine des langues et de la traduction (traductaires et interprètes, représentant·es du monde scientifique ou encore du secteur privé). Ces entretiens menés dans plusieurs langues et pays, principalement européens, nous permettront ainsi d'identifier les lacunes dans les programmes de formation actuels et de déterminer les aspects prioritaires à aborder. L’objectif final est de faciliter l'adaptation de l’enseignement supérieur aux changements en cours et à venir en proposant du matériel pédagogique correspondant aux besoins et attentes qui auront été exprimés.
Ces entretiens semi-directifs se sont déroulés en ligne et ont été enregistrés. Chaque entretien dure environ 30 minutes au total et est divisé en deux parties. Dans la première partie, qui constitue l’entretien public, il s’agit de créer une courte vidéo (entre 2 et 4 minutes) qui sera publiée sur une plateforme publique liée au projet LT-LiDER. Dans cette courte vidéo, chaque participant a pu exposer son point de vue sur la façon dont les technologies influencent les pratiques en traduction. Dans la deuxième partie – l’entretien long –, il s’est agi de recueillir le point de vue de chaque participant concernant les évolutions et les besoins en matière de traduction et de technologies, ainsi que des informations plus détaillées sur la manière dont il est fait usage des technologies dans leur environnement de travail. Cette deuxième partie vise ainsi principalement à recueillir des informations qui serviront à développer des ressources supplémentaires dans le cadre du projet LT-LiDER. Cependant, cette deuxième partie d’entretien pourrait également faire l’objet d’une publication sur une plateforme publique liée au projet sous forme de podcast ou de vidéo.
Participants
Le premier des deux entretiens constituant le cœur de cet article a été mené avec Thierry Fontenelle8 dont on peut dire que l’ensemble de la carrière a été consacré au multilinguisme et à la traduction. Diplômé en philologie germanique de l’université de Liège (1986) et titulaire d’une maîtrise en traduction (1987), M. Fontenelle obtient le titre de docteur en linguistique anglaise en 1995. Après avoir été assistant pendant une dizaine d’années, il rejoint la Commission européenne en tant que linguiste informaticien de 1996 à 1999 avant d’être traducteur et interprète pour une agence de l'OTAN. En 2001, il est recruté par Microsoft et part vivre avec toute sa famille à Seattle (États-Unis). Là-bas, il est notamment responsable du développement et de l'amélioration des outils de correction linguistique intégrés à la suite Office. En 2009, il revient ensuite en Europe et occupe pendant dix ans le poste de chef du département Traduction du Centre de traduction des organes de l'Union européenne, où il supervise une équipe d'environ 120 traductaires. Actuellement, M. Fontenelle est à la tête de la division des services linguistiques à la Banque européenne d'investissement (BEI)9 située à Luxembourg. Surnommée « la banque du climat » pour son rôle de grand bailleur de fonds à l'appui de l'action pour le climat, la BEI est l'institution financière des États membres de l'Union européenne. La division linguistique de la BEI sous sa direction compte une quarantaine de membres et assure la gestion de cinq langues en interne – le français, l'anglais, l'allemand, l'espagnol et l'italien, tandis que les autres langues officielles de l’UE sont externalisées et traitées par des traductaires indépendants ou des agences externes. Leurs principales activités concernent la traduction de documents destinés à être publiés sur le site web de la BEI. Il s’agit entre autres de rapports d'activité, d’études et de politiques, avec une expertise particulière dans le domaine financier. En plus des services de traduction, la division assure également des tâches de contrôle rédactionnel et d’édition pour les publications en anglais, ou encore le sous-titrage de vidéos.
Dans le deuxième entretien, nous nous sommes entretenue avec Nicolas Froeliger, enseignant-chercheur à l’Université Paris Cité et ancien traducteur professionnel. Diplômé en traduction à l’ESIT et titulaire du DESS de traduction de la Sorbonne nouvelle (1987), M. Froeliger complète son parcours académique en obtenant le titre de docteur en littérature américaine en 1995. Parallèlement à son activité de traducteur professionnel qu’il exercera jusqu’en 2003, il assure l’enseignement de plusieurs cours de traduction spécialisée à l’ex-Université Paris Diderot dès 1992, avant d’y exercer comme maître de conférences de 2003 à 2014. Il occupe, depuis 2014, le poste de professeur des universités à l’Université Paris Cité et est actuellement co-responsable, avec Maria Zimina Poirot, du master ILTS (Industrie de la Langue et Traduction Spécialisée). Créé en 1990, ce master est axé sur la formation à l’ensemble des métiers de la traduction, ce qui inclut le développement de compétences technologiques, et a pour particularité de fonctionner en alternance, c’est-à-dire que les étudiant·es travaillent une semaine sur deux en entreprise contre rémunération. Il est également codirecteur du Centre d’études de la traduction (Université Paris Cité), vice-président (et ancien président) de l’AFFUMT (Association française des formations universitaires aux métiers de la traduction) et ancien membre du conseil du Master européen en traduction (EMT).
Les technologies de la traduction sont au cœur des préoccupations de nos deux participants et des institutions qu’ils représentent. Les services de traduction des institutions européennes sont en effet à la pointe des évolutions et s’appuient sur de puissants outils développés en interne. L’histoire de la TA au sein de l’UE est jalonnée par plusieurs étapes d’adoption progressive par les différentes unités linguistiques. Fin 2017, le déploiement de l’outil eTranslation en remplacement de MT@EC en a ainsi marqué un tournant majeur (Rossi et Talbot, 2023). En réalité, « désormais, la TA fait partie d’une politique globale de transformation numérique de l’UE et s’inscrit dans des dispositifs d’envergure qui ne concernent plus seulement les traducteurs de la DGT (Strandvik 2020, 5) » (Rossi et Talbot, 2023 : 151). Quant au Master ILTS de l’Université Paris Cité, il s’agit d’une formation résolument tournée vers l’avenir des métiers de la traduction en lien avec les évolutions technologiques et leur impact sur l’industries des langues. S’appuyant sur le référentiel de compétences du réseau européen des masters en traduction (EMT, 2022) dont il est membre, ce programme vise à développer, outre des compétences en traduction et en prestation de service, toute une série de compétences technologiques telles que la capacité à utiliser « les applications informatiques les plus utiles [et à s’adapter] aux nouveaux outils et ressources[, à exploiter] des moteurs de recherche et des outils de corpus, d’analyse textuelle et d’aide à la traduction[, ainsi qu’à] maîtriser les bases de la traduction automatique et à comprendre son incidence sur le processus de traduction10 ».
Résultats
De bouleversement en bouleversement
Si le récent recours à l’IA en traduction, que ce soit via les moteurs de TA neuronale ou les chatbots, induit un bouleversement majeur pour le marché de la traduction, M. Froeliger attire notre attention sur le fait que ces technologies succèdent, en fait, à toute une série d’innovations technologiques qui se sont accumulées au fil du temps. Il rappelle que le secteur des services langagiers a déjà été témoin d’un certain nombre de bouleversements technologiques qui ont profondément transformé la façon de traduire. L’arrivée graduelle de technologies telles que le télécopieur, le modem, le WYSIWYG11, internet, le courrier électronique ou encore les mémoires de traduction sont autant d’étapes qui ont engendré des changements profonds pour les traductaires, même si certains de ces outils sont aujourd'hui totalement obsolètes. Selon lui, ce qui change désormais, c’est le rythme effréné auquel ces technologies évoluent et les performances qu’elles sont capables d’atteindre. Déjà fin 2016, l’émergence de la TA par réseaux de neurones a représenté un saut qualitatif considérable. Et depuis un peu plus d’un an maintenant, il reconnaît que l’arrivée des grands modèles de langues (LLM) sur lesquels s’appuient les derniers chatbots suscite une réflexion approfondie ; un contexte qui pousse innéluctablement les traductaires à s’adapter en continu et les instituts de formation à repenser l’enseignement de la traduction.
Traductaire ou linguiste schizophrène
De nos jours, les frontières entre traduction, révision de segments issus de la mémoire de traduction (MT) et post-édition de TA sont de plus en plus floues (O’Brien, 2022). Et l’interface de travail hybride dans laquelle travaillent aujourd’hui les traductaires « lesobligent à être, en quelque sorte, un peu schizophrènes », confie M. Fontenelle. Il explique que la tâche des traductaires dans un contexte institutionnel, que ce soit à la Commission européenne, à la Cour de justice, ou encore au Parlement européen, ne consiste pas à effectuer la post-édition d’un texte entier qui aurait été généré par DeepL, GoogleTraduction ou encore eTranslation12, le système de TA de la Commission européenne. Il s’agit plutôt de générer un texte cible dans un environnement de traduction assistée par ordinateur (TAO) intégrant mémoires de traduction et sorties de traduction automatique, avec accès aux bases de données terminologiques. Dans cet environnement à l’architecture fragmentée en segments, il convient de jongler entre la révision d’un segment issu de la mémoire de traduction, la post-édition d’une sortie de TA ou encore la traduction à partir de zéro dans le cas où les outils à disposition ne fournissent pas de résultats suffisamment satisfaisants. M. Fontenelle poursuit en expliquant que les traductaires sont ainsi amené·es à devoir « changer mentalement leur approche » pratiquement à chaque segment et à faire plus ou moins confiance à ce qu’ils·elles ont sous les yeux en fonction de la source d’où provient le segment (MT ou TA).
Les traductaires à l’ère 4.0
Nous avons interrogé nos deux experts sur le profil des traductaires modernes à l’ère 4.0 (ou industrie 4.0, voir Kagermann et Wahlster, 2022). En d’autres termes, quelles compétences les traductaires doivent-ils posséder aujourd’hui pour être à la pointe des avancées technologiques ?
Tout d’abord, M. Froeliger dit être majoritairement en accord avec le référentiel de compétences de l’EMT (EMT, 2022) auquel il a apporté sa contribution. Il persiste à penser que pour être un·e bon·ne biotraductaire, il convient d’avoir des compétences linguistiques et culturelles de base, de développer un certain nombre de compétences technologiques, personnelles et interpersonnelles, ainsi que des compétences de prestation de services. Enfin, il souligne qu’une compétence déterminante, remontant à l’époque d’Aristote, est la capacité à se poser de bonnes questions et à tenir un raisonnement logique. Il insiste sur l’importance de connaître les principes de la rationalité et d’être capable de distinguer ce qui est plausible de ce qui ne l’est pas, ce qui s’avère d’autant plus stratégique à une époque où la post-vérité13 gagne malheureusement du terrain, confie-t-il.
Quant à M. Fontenelle, il souligne que la capacité à traiter des données multimodales (texte, image, vidéo, etc.) devient aujourd’hui incontournable pour les traductaires. Il précise que, même si la majorité des tâches en traduction se font toujours à partir de documents au format Word ou GoogleDoc, les traductaires sont dorénavant amené·es à traiter différents types de données et de logiciels. Il peut s’agir d’outils de reconnaissance de la parole pour des transcriptions ou encore d’outils pour la gestion et la traduction de sous-titres à partir de vidéos, etc. Il est donc essentiel d’acquérir et d’entretenir cette capacité d’adaptation à différents formats de données et outils.
Pour ce qui est des connaissances en TA neuronale et en IA générative, MM. Fontenelle et Froeliger partagent la même opinion. Ils sont d’avis qu’il est certes nécessaire que les traductaires possèdent des notions élémentaires, qu’ils·elles aient un certain degré de compréhension du principe de fonctionnement statistique des nouveaux outils technologiques à leur disposition, ne serait-ce que pour en connaître les limites et se rendre compte des différences par rapport à la première génération de TA à base de règles. Cependant, ils ne pensent pas qu’il faille transformer les traductaires en mathématicien·nes qui auraient une parfaite maîtrise de la mécanique statistique sous-jacente à ces technologies. Ainsi, entrer dans les détails des systèmes neuronaux et des grands modèles de langues ne leur semble pas primordial pour aider les traductaires à mieux traduire. M. Froeliger explique qu’un tel cours de mathématiques et de statistiques a pourtant été testé au sein du Master ILTS pendant quelques années, avant l’arrivée des LLM, mais que cela n’a pas donné de résultats extraordinaires. L’Université Paris Cité a fini par renoncer à ce cours pour diverses raisons. Il mentionne la complexité de parvenir à trouver des enseignant·es capables d’enseigner une telle matière à un public de futures générations de traductaires et le fait que la valeur ajoutée de cet enseignement n’était pas évidente. M. Fontenelle ajoute enfin qu’il vaudrait mieux focaliser les efforts dans la formation sur le repérage des hallucinations14 et des erreurs récurrentes (traduction erronée d’acronymes, de montants, problèmes terminologiques, présence de contresens, etc.).
Ainsi, il ressort de leurs propos que l’acquisition de compétences technologiques se doit d’être adossée à une formation solide en traduction. Cet avis trouve nécessairement écho dans la littérature spécialisée, notamment chez De Faria Pires (2018), Kenny et Doherty (2014), Guerberof-Arenas et Moorkens (2019), O’Brien (2022) ou encore Loock (2019) qui souligne que « les résultats fournis [par la TA] doivent être systématiquement contrôlés, contrôle qui n’est possible que par un acteur disposant de compétences traductionnelles solides » (p. 63). Pareillement, dans leur ouvrage A short guide to post-editing, Nitzke et Hansen-Schirra (2021) proposent un modèle de compétences qui combine des compétences fondamentales en traduction (maîtrise des langues, compétences extralinguistiques et recherche documentaire) avec des compétences spécifiques en PE, ainsi que des compétences plus générales ou « soft skills ».
Écueils technologiques
Comme nous l’avons souligné dans l’introduction, malgré des progrès tangibles (Yvon, 2023), les technologies d’IA présentent toujours certaines limites et leurs performances sont souvent irrégulières et peu fiables (Bang et al., 2023). Dans cette perspective, nous avons voulu connaître l’avis de nos spécialistes sur les performances futures des outils d’IA.
À la question « existe-t-il des limites que vous souhaiteriez voir repoussées ? », M. Froeliger évoque intuitivement un réglage plus fin et une vérification plus précise des outils. Ceci permettrait de supprimer, ou en tout cas de réduire, le phénomène des hallucinations en TA et en IA générative, bien que la définition exacte de ce concept soit toujours sujette à débat, précise-t-il.
M. Fontenelle évoque, lui, d’autres lacunes persistantes en TA qui concernent le traitement d’acronymes, mais aussi d’expressions polylexicales (« multi-word expressions » (MWE), etc. et dont certaines pourraient être résolues relativement aisément, argue-t-il. Ainsi, il déplore le manque d’intégration de connaissances terminologiques aux nouveaux outils technologiques et leur mauvaise exploitation par les systèmes de TA. Par « connaissances terminologiques », il entend toutes les annotations, les métadonnées qui sont contenues dans les bases de données terminologiques. M. Fontenelle poursuit en insistant sur le fait que ces informations terminologiques sont le fruit d’efforts considérables fournis en continu par les terminologues et les traductaires, que ce soit à un niveau local en enrichissant de petites bases de données ou à un niveau plus centralisé en alimentant des bases terminologiques institutionnelles, telle IATE15. Ainsi, il préconise une collaboration accrue entre les linguistes et l’industrie qui développe ces outils technologiques afin de dépasser ces limites.
Tempérer l’emballement technologique
Tout comme le recommandent notamment Ayvazyan et al. (2024) et Moorkens et Guerberof-Arenas (2024), M. Fontenelle a bien insisté sur le besoin d’informer et d’éduquer les clients face aux effets de mode et aux discours vantant les nombreux atouts des technologies de l'intelligence artificielle. En effet, il reconnaît qu’aujourd’hui, certain·es commanditaires qui connaissent peu ou mal la profession, ont tendance à croire qu’il est possible de se passer totalement de l'intervention humaine dans le processus de traduction. Ce ne sont certes pas la majorité des clients, déclare-t-il, mais cela représente malheureusement une frange non négligeable de la clientèle. Il se dit convaincu qu’il incombe aux traductaires de montrer, de façon pédagogique, en quoi leur intervention est utile et en quoi celle-ci apporte une valeur ajoutée. Et il incite d’ailleurs les traductaires à entrer en dialogue avec leurs clients pour les sensibiliser aux limites de ces nouveaux outils afin de maintenir un certain niveau de qualité et d’éviter que des clients se satisfassent d'une version dégradée de ce qui aurait pu être produit. Évoquant sa propre expérience, il explique avoir collecté toute une série d’exemples d’erreurs typiques en TA dans le but de les montrer aux client·es et de tempérer leurs attentes en leur disant : « OK, on a fait des progrès, on traduit certainement plus vite qu’il y a 10 ou 15 ans, certainement, c'est indéniable. Mais attention, n'attendez pas trop et ne sacrifiez pas cette étape indispensable qu’est la validation par un être humain spécialisé ».
L’humain comme rouage irremplaçable
Si l’industrie des langues dépend de trois ressources majeures : les humains, les énergies et les données, Moorkens et Guerberof-Arenas (2024) nous rappellent à juste titre que ce sont les humains qui demeurent la ressource principale.
Tout en reconnaissant que ces technologies ont révolutionné pas mal de choses dans le domaine de la communication, et particulièrement pour certains types de documents et de scénarios, M. Fontenelle tient à rappeler qu’« on est encore loin de la grande qualité » et qu’on ne peut se passer de l’humain : « Je crois toujours dans l'intervention humaine, de toute façon finale, surtout pour ce qui doit être diffusé, sous quelque forme que ce soit ; un site web, une publication écrite ; un communiqué de presse, etc. ».
Quant à M. Froeliger, il ne croit absolument pas à la teneur des propos millénaristes annonçant soit la disparition des traductaires, soit l’inutilité de la traduction machine. Il se dit convaincu que tant qu’il y aura des destinataires humains, il faudra des traductaires et spécialistes humains pour produire des contenus qui leur soient adaptés, ce qui va passer de plus en plus par une maîtrise des outils. Il estime que la valeur ajoutée de l’humain par rapport aux technologies réside dans sa capacité à faire fonctionner ces outils de sorte qu’ils génèrent des propositions de traduction qui tiennent la route, à en évaluer les sorties et à garantir que la qualité du résultat fourni réponde à la demande.
Actualiser l’enseignement de la traduction
Selon M. Fontenelle, s’il est aujourd’hui impensable de ne pas introduire des cours de post-édition de TA dans les cursus en traduction, tout le débat est plutôt de savoir à quel moment il convient de le faire. Rejoignant l’opinion de bon nombre de scientifiques et pédagogues (voir notamment De Faria Pires, 2018 ; Hernández Morin, 2023), il est d’avis que l’intégration de la PE dans la formation devrait se faire en fin d’études, au moins au niveau master, afin que l’étudiant·e ait pu acquérir une parfaite maîtrise des langues source et cible, ainsi que des compétences en traduction humaine avant de se frotter aux outils technologiques. Il ajoute : « il serait inacceptable de sortir après cinq ans d'études, après un master, sans avoir été exposé à la nécessité de voir de façon critique comment post-éditer une traduction automatique ». M. Fontenelle conclut en soulignant que les universités ont, sur ce point, un rôle primordial à jouer, en exposant notamment les étudiant·es aux limites des outils technologiques, en se servant de matériaux pédagogiques tels que des exemples riches et authentiques d’erreurs ou d’hallucinations qui auront été précieusement compilés et conservés.
Fort de son affiliation au réseau EMT, M. Froeliger souligne que le master ILTS, tout comme bon nombre d’autres instituts de formation, s’attelle effectivement à la mise à jour des programmes de formation en traduction. Il explique qu’il est question notamment d’intégrer la pratique de ces outils dans les cours, mais aussi d’encourager une forme de « littératie numérique » fondée sur la maîtrise des données (data literacy) afin de promouvoir un usage raisonné et non naïf de ces technologies. Il s’agit également d’éviter que certain·es ne tournent radicalement le dos aux technologies pour se rabattre sur un petit segment du marché pour lequel ces outils n’ont aucune plus-value. Il conclut en évoquant plusieurs grands défis qui se posent aujourd’hui, selon lui, aux didacticien·nes tout en concédant ne pas être en mesure d’y apporter de réponses concrètes à ce stade. S’il reconnaît les nombreux efforts existants, il souligne qu’il reste : « un grand travail pédagogique à mener aussi bien sur la notion d’erreur, que sur l’intégration de la traduction dans un contexte avec une visée professionnelle, […] [et enfin sur l’articulation] entre formation professionnelle et recherche. »
Conclusion
Face aux dernières avancées technologiques en matière de TA et d’IA générative, l’actualisation de l’enseignement de la traduction s’impose (De Faria Pires, 2018 ; Martikainen, 2023). Le projet européen LT-LiDER, qui s’inscrit dans un contexte d’exacerbation des enjeux rencontrés précédemment en TA neuronale, entend contribuer à cette mise à jour en proposant des ressources pédagogiques innovantes et pertinentes afin de former des professionnel·les capables d’évoluer dans ce paysage en constante mutation.
Bien que les résultats des deux entretiens semi-directifs au cœur de cet article ne puissent donner lieu à une généralisation, l’analyse des échanges avec deux spécialistes en traduction a permis de réaffirmer certains des défis et des atouts que représentent ces progrès technologiques dans les contextes de la traduction institutionnelle et des formations universitaires en traduction. En effet, les échanges dont nous avons rendu compte ici confirment non seulement les progrès indéniables réalisés en matière d’utilisation de l’IA en traduction, mais également le rôle incontournable et indispensable de l’humain dans le processus de traduction. En outre, les deux spécialistes ont évoqué les compétences essentielles et stratégiques que les traductaires doivent aujourd’hui maîtriser pour pouvoir se démarquer dans un secteur en constante évolution. Il ressort également des discussions l’importance de tempérer l’emballement technologique général en sensibilisant les clients aux écueils persistants ou nouveaux de ces outils d’IA et en démontrant la valeur ajoutée des biotraductaires (Loock, 2019 ; Moorkens et Guerberof-Arenas, 2024). À travers les propos recueillis, nous percevons aussi l’impérieuse nécessité d'intégrer les nouveaux outils technologiques dans les cursus des futures générations et d’en promouvoir un usage critique et raisonné. Enfin, à l’instar de nombreux spécialistes, tels que Martikainen (2023), Moorkens et Guerberof-Arenas (2024) ou encore Rossi (2019), les deux participants ont insisté sur le rôle clé que les instituts de formation ont à jouer dans le développement de la pensée critique et de la capacité de raisonnement logique des étudiant·es face aux limites de ces technologies et aux enjeux que leur utilisation représente dans un paysage en constante évolution avec pour objectif de former des traductaires critiques et responsables, capables de tirer pleinement parti des nouvelles technologies, tout en valorisant leurs spécificités humaines essentielles à la profession.