Meilleures Pratiques

Traduction sensible au contexte avec les grands modèles de langage

La traduction automatique traditionnelle est problématique depuis longtemps, même avec l'introduction de la traduction automatique neuronale et de grands ensembles de données de formation. Bien qu'il puisse produire des résultats intéressants lorsqu'il est finement réglé et formé pour un domaine spécifique avec un langage prévisible et simple, il est généralement peu fiable et erratique lorsqu'il est appliqué à une variété de domaines, de langues et de circonstances.‍
Gabriel Fairman
3 minutes

La

traduction automatique traditionnelle pose problème depuis longtemps, même avec l'introduction de la traduction automatique neuronale et de grands ensembles de données d'entraînement. Bien qu'il puisse produire des résultats intéressants lorsqu'il est finement réglé et formé pour un domaine spécifique avec un langage prévisible et simple, il est généralement peu fiable et erratique lorsqu'il est appliqué à une variété de domaines, de langues et de circonstances.

De nombreux traducteurs réputés n'aiment toujours pas la traduction automatique et refusent de l'utiliser comme premier brouillon ou réécrivent entièrement les flux. Cela met en évidence le fossé entre les machines et les humains, même avec l'immense évolution de la traduction automatique ces dernières années. D'après notre sondage, seul un petit pourcentage de traducteurs considère la traduction automatique comme un allié précieux.

La traduction automatique traditionnelle est soit trop générique et erratique, soit trop spécifique, nécessitant des circonstances spécifiques pour être efficace, comme de gros volumes de contenu avec une structure linguistique simple ou une ségrégation de domaine comme manuels techniques, base de connaissances sur les produits et documentation d'assistance. Même les moteurs formés ont du mal à gérer les incohérences et les divergences entre les bases terminologiques, les mémoires de traduction et la formation du corpus linguistique.

Il s'agit notamment des glossaires mis à jour par les réviseurs ou les traducteurs de l'entreprise après le processus de formation, les différences entre les glossaires et le corpus de formation, la nécessité de créer et de maintenir des moteurs spécifiques pour une qualité maximale, la mémoire de traduction des écarts par rapport au corpus formé et des erreurs stupides telles que la traduction d'entités ou d'autres noms propres, et un manque de sensibilité culturelle ou linguistique.

Ces exemples entraînent des flux peu fiables et un processus de révision difficile pour les traducteurs. De plus, la gestion de modèles de traduction automatique ajustés et formés nécessite généralement un ou plusieurs ingénieurs de localisation dédiés à ces efforts, ce que la plupart des petites et moyennes agences de traduction et les programmes de localisation n'ont pas la bande passante pour.

La traduction sensible au contexte avec les grands modèles de langage, cependant, change cela. Le contexte fait référence à toutes les informations qui ne sont pas le texte lui-même mais qui aident le moteur à donner un sens au texte et à la manière de le traiter. Des exemples de contexte sont les glossaires, les mémoires de traduction, les commentaires passés et le taux de rebond, mais le contexte peut être n'importe quelle information. Avec les grands modèles de langage qui peuvent prendre en compte des milliards de paramètres par conception, il n'y a vraiment aucune limite à la quantité de contexte avec laquelle vous décidez de travailler.

Voici un exemple de prise en compte du contexte :

Notez qu'il existe un flux Mémoire de traduction à 89 % et un flux Traduction automatique. Le flux TM appelle notre "moteur" un "moteur" en portugais tandis que le MT appelle le moteur un "mécanisme" en portugais. Le glossaire précise cependant que « engine » doit être conservé comme « engine ». Lorsqu'il est traité via BWX Translate, notre modèle prend en compte cette préférence (ainsi que d'autres) :

BWX Translate non seulement insère le terme correct selon la dernière version du glossaire, mais fait toute modification nécessaire du texte afin qu'il soit bien lu dans la langue cible tout en tenant compte du contexte linguistique offert par la mémoire de traduction.

Avec BWX Translate, les grands modèles de langue comme ChatGPT peuvent prendre en compte leur propre ensemble de données d'entraînement, des mémoires de traduction spécifiques, des glossaires et autre contexte pertinent pour offrir aux traducteurs un flux de traduction nuancé, contextualisé et conscient dans un projet donné. Nous pouvons prendre en compte les dernières mises à jour des glossaires et des mémoires de traduction en temps réel, ce qui signifie qu'il n'est pas nécessaire de soumettre à plusieurs reprises des glossaires et des traductions mis à jour à des serveurs de traduction automatique formés et réglés pour espérer qu'ils tiennent compte de la préférences linguistiques.

Avec BWX Translate, vous pouvez former et traduire à la volée, et tout projet de traduction, quelle que soit sa taille{10 } mémoire de traduction, et un glossaire de toute taille peut bénéficier de ses capacités de fusion textuelle et de probabilité linguistique. Il n'y a pas de temps d'installation et pas besoin de s'entraîner au préalable.

D'après nos recherches initiales, un tel moteur peut fournir aux traducteurs des flux qui brisent la résistance de longue date à l'exploitation de la sortie des machines. Notre moteur ouvre également la porte à une conversation entre le traducteur et le moteur. Il est plus logique d'enrichir un glossaire si vous en bénéficiez instantanément, et il est plus facile de faire confiance à une machine si vous savez par expérience qu'il existe au moins quelque chose qui ressemble à la pensée critique et adaptative.

En plus de la traduction contextuelle, nous avons également ouvert la porte aux traducteurs pour interagir avec des modèles de langue afin qu'ils puissent avoir un deuxième regard sur leurs choix, des suggestions alternatives , et même démarrer une conversation si nécessaire.

La traduction contextuelle avec les grands modèles de langage est plus qu'un processus de pré-traduction amélioré. C'est un pas décisif vers des humains travaillant avec des machines pour produire un meilleur contenu avec moins d'effort et en moins de temps.

À l'avenir, le contexte continuera de s'étendre de manière sans précédent et nous serons en mesure de créer des textes multilinguesen tenant compte du comportement des utilisateurs, de l'analyse Web et d'une pléthore d'autres organes d'information qui peuvent être consommé et compris par de grands modèles de langage. Ce n'est que le tout début et cela a déjà tout changé.

Gabriel Fairman

Try Bureau Works Free for 14 days

ChatGPT Integration
Get started now
The first 14 days are on us
Free basic support