Présentation et Objectifs


Ce module est focalisé sur la post-édition de textes littéraires passés par des outils automatiques de traduction tels que Google Translate, DeepL, Lingvanex, Big Science. L’amélioration très nette des performances de la traduction neuronale et la mise à disposition d’outils gratuits pour le grand public ont créé les conditions d’une généralisation de la post-édition dans le domaine littéraire, à laquelle il faut se préparer. Dans quelle situation recourir à ces outils ? Qu’est-ce qu’ils amènent : gain de temps, facilitation de la saisie, suggestions et variantes ? Quelles sont leurs limites ?


Objectifs

Cette formation a pour principale visée de permettre une meilleure prise en main des outils de traduction neuronale, au service de la traduction littéraire, par des exercices concrets et un partage des bonnes pratiques. Elle offre également une contextualisation de l’histoire, des possibilités et des limites de ces outils. Elle vise enfin à développer un regard critique sur leurs effets économiques et sociétaux. A ce titre seront évoqués la question de la standardisation des énoncés, des affordances linguistiques et techniques, de l’effet de boîte noire, de la remise en cause du statut et du droit d’auteur, de l’exploitation des données d’écriture etc.


 Compétences viséees

À l’issue de cette formation, les stagiaires seront capables de :
• Identifier les possibilités et les limites de la TAN
• Prendre en main des interfaces de traduction
• Identifier des problèmes récurrents en phase de post-édition
• Identifier et résoudre des « hallucinations de la machine »
• Mettre en place une pré-traduction
• Post-éditer des textes de registres divers
• Gérer le temps dans le cadre d’une commande
• Valoriser un travail de post-édition (facturation, positionnement vis-à-vis du client, statut)