LANGUE :
LANGUE :
Pôles de connaissances Lionbridge
- Résultats positifs pour les patients
Services de contenu
- Rédaction technique
- Formation et eLearning
- Reporting financier
- Marketing numérique
- Optimisation de contenu
Services de traduction
- Localisation vidéo
- Localisation de logiciels
- Localisation de site Web
- Traduction certifiée
- Interprétation
- Événements en direct
Services de tests
- Assurance qualité fonctionnelle et tests
- Tests de compatibilité
- Tests d'interopérabilité
- Test des performances
- Tests d'accessibilité
- Test utilisateur/client
Solutions
- Modèles de services de traduction
- Traduction automatique
- Smart Onboarding™
- Aurora AI Studio™
Nos pôles de connaissances
- Résultats positifs pour les patients
- Futur de la localisation
- De l'innovation à l'immunité
- Centre de ressources pour la COVID-19
- Série Disruptive
- Engagement patient
- Lionbridge Perspectives
Sciences de la vie
- Pharmaceutique
- Clinique
- Réglementaire
- Post-approbation
- Entreprise
- Dispositifs médicaux
- Validation et clinique
- Réglementaire
- Post-autorisation
- Entreprise
Banque et finance
Vente au détail
Luxe
E-commerce
Lionbridge Games
Automobile
Biens de Consommation
Technologie
Fabrication industrielle
Services juridiques
Tourisme
SÉLECTIONNER LA LANGUE :
L'adoption de l'IA générative est essentielle pour réussir, en particulier lorsque vos concurrents l'utilisent pour leurs flux de travail, la traduction ou la création et l'optimisation de contenu. L'autocorrection est un élément essentiel lié à l'utilisation de l'IA générative. Malheureusement, les grands modèles linguistiques (LLM) peuvent produire des résultats imprécis en raison de plusieurs facteurs. En effet, les données avec lesquelles un LLM est entraîné peuvent inclure des informations problématiques ou fausses. De plus, les outils d'IA connaissent parfois des « hallucinations » ou inventent des informations. Pour résoudre les problèmes dans les résultats d'IA, il est possible d'appliquer des mesures d'« autocorrection ». (Certains experts l'appellent également « autocritique » ou « auto-ajustement ».) Plusieurs études ont testé des méthodes qui exigent des LLM de revoir leurs résultats et d'affiner leurs réponses avant de les fournir. Lisez notre blog et découvrez certaines des techniques qu'emploient les utilisateurs pour appliquer l'autocorrection à leurs solutions d'IA Ce blog aborde également les limitations de l'autocorrection de l'IA.
Il existe actuellement quatre méthodes de mise en place de l'autocorrection de l'IA :
1. Un prompt axé sur la précision : parfois, il peut être utile d'ajouter, dans la série de prompts, un prompt mettant l'accent sur l'exactitude. Voici un prompt couramment utilisé publié sur X :
« Tu es un modèle de langage autorégressif qui a été affiné avec l'ajustement d'instructions et le RLHF. Tu fournis avec soin des réponses précises, factuelles, réfléchies et nuancées, et ton raisonnement est excellent. Si tu penses qu'une réponse risque de ne pas être correcte, tu le signales. »
2. Transformer les outils d'IA en experts : l'un des moyens d'anticiper les inexactitudes consiste à transformer votre outil d'IA en un expert moins susceptible de produire des erreurs. De nombreux utilisateurs et prestataires de services d'IA, notamment un groupe de développeurs GitHub, créent des prompts qui ordonnent aux outils d'IA d'agir en tant qu'experts. Notons que les meilleurs profils d'experts sont ceux qui intègrent le plus de détails sur le respect des bonnes pratiques, à condition qu'elles soient largement acceptées. Si les commandes sont trop générales, l'outil d'IA peut commencer à produire des hallucinations dans le contenu. Par exemple, le prompt « Tu es un excellent conseiller d'orientation » ne suffit pas. Les prompts doivent inclure des conseils de bonnes pratiques que les conseillers d'orientation suivent en général. Une autre bonne pratique consiste à tester la série de prompts avec une tâche pour laquelle vous connaissez la réponse. Cela aidera à déterminer comment optimiser les prompts de profils d'experts. Parfois, selon le type de tâche, il peut même être utile de développer plusieurs itérations d'un prompt sur un profil d'expert. Les développeurs GitHub ont dressé une liste de 15 séries d'invites qu'ils ont utilisées pour transformer l'IA en un assistant expert. Même s'ils ne sont pas les seuls à le faire, leur liste est très complète.
1. Conseiller d'orientation
2. Intervieweur pour un poste spécifique
3. Assistant pour la prononciation en anglais
4. Annonceur
5. Responsable des réseaux sociaux
6. Assistant en Rédaction IA pour Etudiants
7. Comptable
8. Consultant en Web Design
9. Développeur UX/ UI
10. Architecte IT
11. Spécialiste en cybersécurité
12. Ingénieur en Machine Learning
13. Expert IT
14. Générateur de formules Excel
15. Chef du personnel
3. Ajout de prompt « pre-hoc » ou « post-hoc » : il est possible d'ajouter des prompts qui modifient le style des résultats de l'IA. Le style doit parfois être formel ou informel, ou ciblé sur les audiences à niveau d'éducation élevé ou de niveau lycée. Si les prompts sont ajoutés après la génération des résultats, on parle de « prompt post-hoc ». Selon un projet d'étude récent de DeepMind de Google, les meilleurs résultats sont obtenus avec des prompts pré-hoc et post-hoc de même efficacité.
4. Utilisation de prompts pour éliminer les préjugés : si les LLM ne sont pas entraînés avec les données appropriées, leurs résultats risquent de reproduire les préjugés des millions de personnes qui ont déversé du contenu haineux sur Internet. Selon une étude récente du labo sur l'IA Anthropic, il est possible d'utiliser l'apprentissage par renforcement à partir du feedback humain (RLHF, Reinforcement Learning from Human Feedback) pour entraîner un LLM à produire des résultats sans (ou avec moins de) racisme, âgisme, misogynie, etc. Ajoutez des instructions dans la constitution de l'IA pour tenir compte des principes éthiques généraux déterminés par votre équipe. Une partie de ce processus consiste à ajouter une ligne dans les invites afin d'éviter que le LLM ne s'appuie sur des stéréotypes ou des concepts préjudiciables. Dans certains cas, il a été démontré que les outils d'IA commencent à intégrer une « discrimination positive » dans leurs résultats, parfois même au-delà des attentes.
Les mesures d'autocorrection de l'IA peuvent être puissantes, mais des études montrent également qu'elles présentent encore certaines limites. La même étude Google DeepMind a déterminé que les LLM enregistraient parfois des performances moins bonnes avec les mesures d'autocorrection. Dans les cas où elle ne nuit pas aux performances, l'autocorrection n'est pas toujours efficace pour chaque série de prompts d'IA, en particulier en l'absence d'utilisation de sources externes (une calculatrice, un exécuteur de code, une base de connaissances, etc.). Pour assurer les meilleurs résultats, les mesures d'autocorrection ont besoin d'accéder à un ensemble de données de référence, intégrant des vérités de base. Grâce à ces références, l'outil d'IA saura quand il doit arrêter son processus de raisonnement, ce qui évitera la surcorrection de ses résultats. Naturellement, les chercheurs ont noté que certaines tâches étaient trop complexes pour fournir ces types de références à un outil d'IA.
La même étude a également observé une autre limitation de l'autocorrection par l'IA lors de l'utilisation d'applications LLM multi-agent. Le LLM doit effectuer plusieurs tâches en tant qu'« agents », ou acteurs, différents.
Le LLM génère du code en tant qu'un agent. Puis, il vérifie également le code en tant qu'un autre agent.
Le LLM réalise un débat opposant les deux agents.
Le problème est que les différents agents utilisent une forme de vote majoritaire pour déterminer la réponse correcte, ce qui crée une sorte de chambre d'écho ou d'« autocohérence », plutôt qu'une véritable exactitude.
Les limitations de l'autocorrection de l'IA soulignent combien il est essentiel d'intégrer un humain dans la boucle. Les outils d'IA peuvent améliorer l'efficacité de la traduction, mais ils ont souvent besoin d'une intervention humaine tôt ou tard. Un humain doit peut-être développer la meilleure série d'invites, vérifier un échantillon initial ou réviser le résultat final. Les mesures d'autocorrection peuvent faciliter l'ensemble du processus, mais ne peuvent pas remplacer un humain.
Pour cela, il est essentiel de travailler avec des experts consultants en IA, tels que ceux de Lionbridge, qui peuvent aider à combler le fossé de confiance de l'IA. Ils doivent :
Minimiser les risques de contenu/résultat non fiable ou de mauvaise qualité
Assurer la sécurité des données face aux cyberattaques ou à tout type de compromission
Faire preuve de créativité et aider à développer un contenu ou résultat nouveau, intéressant et original
Vérifier et améliorer l'exactitude, en particulier pour les supports complexes qui requièrent une éducation ou une expertise intensives
Ne jamais essayer de vous vendre des technologies, solutions ou abonnements inutiles
Partager tout le processus et demander des informations, des retours et une personnalisation en permanence
Vous souhaitez découvrir comment utiliser l'IA pour automatiser la création de contenu, l'optimisation du contenu du site Web ou d'autres services linguistiques ? L'équipe dédiée d'experts en IA de Lionbridge est prête à vous aider. Nous contacter.