Visitez Lionbridge Games

SÉLECTIONNER LA LANGUE :

personne en train de réviser des schémas de données à travers un objectif orange
personne en train de réviser des schémas de données à travers un objectif orange

Entraînement de l'IA et IA responsable

Éviter les résultats biaisés et préjudiciables avec votre LLM

De plus en plus d'entreprises commencent à utiliser leurs propres grands modèles de langage (LLM, Large Language Model). C'est pourquoi l'IA responsable devient une question essentielle. L'un des critères primordiaux de l'IA responsable est d'entraîner votre IA et de valider ses données afin d'éviter la génération de contenu haineux, intolérant ou biaisé. Ce type de contenu peut être préjudiciable et contribuer à des problèmes sociaux globaux, y compris (mais sans s'y limiter) :

  • Diffuser un discours haineux
  • Marginaliser certains groupes ou certaines communautés
  • Causer une détresse émotionnelle

Le contenu biaisé ou intolérant entraîne également des conséquences commerciales désastreuses. Lisez la suite afin de découvrir pourquoi les entreprises doivent recourir à l'entraînement de l'IA pour garantir une utilisation responsable de l'IA et mettre en place les actions que nous recommandons.

Pourquoi l'IA responsable est-elle essentielle pour le contenu professionnel ?

Lorsque le LLM d'une entreprise néglige l'IA responsable en créant du contenu intolérant, haineux ou biaisé, il ne cause pas simplement les problèmes sociaux mentionnés ci-dessus. L'entreprise risque également de subir certaines conséquences graves. Les répercussions négatives peuvent découler de tout contenu orienté public, notamment :

  • Supports marketing papier
  • Chatbots de sites Web officiels
  • Publications sur les réseaux sociaux
  • E-mails commerciaux
  • Textes sur le site Web

Le LLM d'une entreprise est plus susceptible de créer du contenu multilingue offensif sans intervention humaine au cours du processus. Dans certains cas, l'intervention d'un expert humain est essentielle pour réviser et parfaire la traduction ou la localisation réalisée par l'IA. Voici quelques conséquences auxquelles une entreprise est susceptible d'être confrontée :

Conséquences potentielles liées à une IA non responsable

  • Juridiques, notamment procès pour diffamation, discrimination ou harcèlement
  • Pénalités réglementaires, amendes, restrictions, etc.
  • Dommages à la réputation auprès des parties prenantes, des clients, etc.
  • Perte de clients et de partenariats commerciaux
  • Perte de revenu
  • Frais pour compenser les dommages, y compris nouvelle publicité pour restaurer la confiance, entraînement et développement plus approfondis de l'IA, etc.
  • Impact négatif sur le moral, la fidélité et la productivité des employés

Les entreprises peuvent subir juste l'une de ces conséquences ou plusieurs. Des mesures adéquates sont essentielles pour éviter ces ramifications. Lisez nos recommandations ci-dessous. 

5 tactiques pour assurer une utilisation responsable de l'IA et éviter le contenu préjudiciable

Pensez à mettre en place la totalité, ou au moins quelques-unes, de ces tactiques pour vous assurer que votre résultat d'IA n'est pas involontairement biaisé, raciste, misogyne, ou simplement offensant ou tabou culturellement. Pour obtenir des résultats optimaux, travaillez avec un groupe de personnes diversifié lors du processus d'entraînement et de surveillance de l'IA. Ce groupe apportera une base de connaissances plus étendue et plus solide. Pensez à travailler avec des experts en entraînement de l'IA, comme les spécialistes de Lionbridge, qui maîtrisent l'IA, les normes socioculturelles, les secteurs et la linguistique. Enfin, certaines entreprises peuvent définir des politiques pour les développeurs et les utilisateurs de l'IA. Ces politiques formulent les conséquences en cas de mauvaise utilisation d'un système d'IA. Elles motivent tous les utilisateurs à s'assurer que l'IA ne crée jamais de contenu préjudiciable ou offensant.

rubans de données numérisées flottants

Tactique n° 1 : curation des données

Lors de l'entraînement de l'IA, une collecte appropriée des données est primordiale pour enseigner à un LLM à créer du contenu dénué de biais, de racisme, de misogynie, etc. Les entreprises doivent adopter une double approche. Tout d'abord, il convient d'éliminer les données issues de sources pouvant inclure des points de vue problématiques. La seconde étape consiste à s'assurer que les données d'entraînement d'un LLM représentent différents points de vue et voix. Si le contenu est multilingue ou provient de différents endroits ou cultures, il peut être utile de demander l'aide d'experts locaux ou linguistiques pour ces tâches. Lionbridge bénéficie d'une expérience solide en langues et en linguistique. Grâce à cette expertise, nous bénéficions d'un positionnement unique pour procéder au traitement du langage naturel requis dans l'apprentissage automatique. 

Tactique n° 2 : mise en place d'un cadre éthique

Lors de l'entraînement de l'IA en vue d'obtenir des résultats éthiques, il est essentiel de définir un cadre éthique. Comme pour la création d'un guide de style ou d'un glossaire, une entreprise doit élaborer une série de règles et de directives que le contenu devra respecter. Appuyez-vous sur les normes du secteur pour créer ce cadre, ceci vous garantira la conformité et de meilleurs résultats. Il peut être nécessaire d'étendre et de diversifier ces cadres pour les tâches multilingues ou culturelles, afin d'inclure de nouvelles normes linguistiques ou sociales, ou certains tabous. Les entreprises doivent également mettre en place des protocoles et des structures pour le déploiement éthique et continu du modèle d'IA. 

Tactique n° 3 : pré-entraînement en matière d'éthique et de biais

Au cours des phases de pré-entraînement et de réglage, les entreprises doivent donner la priorité aux techniques de réduction des biais. Le cadre éthique mentionné ci-dessus doit servir à enseigner au LLM à identifier et à éviter de créer et de consommer du contenu biaisé ou offensant. Lors des tests du LLM pendant le pré-entraînement, il est essentiel d'utiliser la validation des données pour mettre à jour les jeux de données avec une compréhension fondamentale de l'éthique et des biais. Le cadre éthique est également utile pour cette étape.

Pendant l'entraînement, pensez à créer des mécanismes qui mettent en avant la prise de décision du modèle d'IA lors de l'identification et du rejet du contenu offensant. Cette transparence sera utile ultérieurement en cas de problèmes.

un globe d'hexagones entourés d'étoiles

Tactique n° 4 : surveillance permanente des résultats

Après avoir entraîné son IA, une entreprise doit continuer à en réviser les résultats. Pour le contenu stratégique, il peut être utile de faire appel à un réviseur humain. Cela est particulièrement vrai dans le cas de contenu conçu pour des clients qui parlent différentes langues et qui sont issus d'autres cultures. Les entreprises peuvent également faire appel à un réviseur humain pour les audits de supports planifiés régulièrement, afin d'assurer la qualité et la conformité à leur cadre éthique. Vous pouvez également donner aux clients la possibilité de signaler tout contenu offensant, puis intégrer ces commentaires à vos ajustements continus.

Tactique n° 5 : ré-entraînement de l'IA selon le besoin

Les entreprises doivent intégrer le ré-entraînement dans leurs protocoles, et ce pour différentes raisons. Tout d'abord, le modèle d'IA ne va pas forcément « apprendre » dès le départ et de manière approfondie comment appliquer correctement le cadre éthique. Il peut créer du contenu offensant, ou le cadre éthique peut faire défaut. Deuxième raison pour le ré-entraînement continu : les normes culturelles évoluent constamment. Même si le contenu n'est pas offensant aujourd'hui, il pourrait l'être demain, en particulier s'il est conçu pour des clients qui parlent plusieurs langues ou qui sont issus d'autres cultures. Plus le nombre de cultures et de langues est important, plus vous devrez intégrer des nuances dans un cadre éthique.  

Contactez-nous

Commencez votre entraînement de l'IA avec les experts de Lionbridge. Nous avons aidé un grand nombre de clients à profiter au mieux de leur LLM. Nous accordons une grande importance à la confiance dans l'IA et à son utilisation responsable, et nous possédons notre propre cadre TRUST. Nous veillerons à ce que votre LLM aide votre entreprise à atteindre ses objectifs et lui apporte un retour sur investissement. Contactez-nous.

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

RÉDIGÉ PAR ET/OU CONTRIBUTEUR/TRICE
Samantha Keefe et Susan Morgan, Vice-présidente des ventes IA

Parlons-en

Veuillez saisir votre adresse électronique professionnelle