En l’espace de six courtes années (2017-2023), le domaine du traitement des langues (TAL) a été profondément transformé par les avancées des architectures neuronales génériques, qui sont à la fois utilisées pour apprendre des représentations profondes pour les unités linguistiques et pour générer du contenu textuel de haute qualité. Ces architectures sont aujourd’hui omniprésentes dans les applications de TAL ; entraînés à grande échelle, ces “grands modèles de langue” (LLM) offrent de multiples services (résumé, aide à la rédaction, traduction) dans un unique modèle grâce à des conversations presque naturelles et des techniques d’amorçage (prompting).
Ce projet vise à analyser cette nouvelle situation du point de vue de la traduction automatique (TA) et à étudier deux questions principales :
Le consortium est composé de deux équipes de recherche académique : ISIR/MLIA (Sorbonne-Université and CNRS) et ALMAnaCH (Inria, Paris) et une PME : SYSTRAN.
L'ISIR est un laboratoire commun à la Sorbonne-Université et au CNRS. Au sein de l'ISIR, l'équipe MLIA mène des recherches dans le domaine du Machine Learning (ML) en mettant l'accent sur les aspects algorithmiques et sur les applications impliquant l'analyse de données sémantiques et la modélisation de systèmes complexes.
Inria est l'Institut national de recherche en sciences et technologies du numérique. ALMAnaCH est l'équipe de recherche en traitement du langage naturel d'Inria Paris. Elle mène des recherches dans le domaine du traitement du langage naturel et des humanités numériques.
Depuis sa création en 1968, SYSTRAN a été un pionnier dans les technologies de la traduction automatique. Fortement axée sur la recherche et le développement, SYSTRAN compte environ 100 employés et réalise un chiffre d'affaires de 20 millions d'euros.