Visite Lionbridge Games

SELECCIONAR IDIOMA:

una persona consultando patrones de datos a través de un objetivo naranja
una persona consultando patrones de datos a través de un objetivo naranja

Entrenamiento de IA e IA responsable

Prevención de resultados sesgados y dañinos de su LLM

Ahora que cada vez son más las empresas que empiezan a utilizar sus propios modelos lingüísticos de gran tamaño (LLM), la IA responsable se ha convertido en una preocupación de primer orden. Una parte clave de la IA responsable es utilizar la validación de datos y el entrenamiento de la IA para evitar que se genere contenido de IA intolerante, tendencioso o que incite al odio. Este tipo de contenido puede ser perjudicial y contribuir a problemas sociales generales, incluidos (entre otros):

  • Difusión de discursos de odio
  • Marginación de determinados grupos o comunidades
  • Provocación de angustia emocional

El contenido tendencioso o intolerante también tiene graves consecuencias para las empresas. Siga leyendo y descubra por qué las empresas deberían utilizar el entrenamiento de la IA para garantizar el uso de una IA responsable e implementar nuestras medidas recomendadas.

¿Por qué la IA responsable es fundamental para los contenidos comerciales?

Cuando el LLM de una empresa descuida la IA responsable creando contenido intolerante, tendencioso o que incita al odio, no solo crea los problemas sociales antes mencionados. La empresa también puede sufrir algunas consecuencias. Cualquier contenido dirigido al público puede tener repercusiones negativas, entre las que se incluyen:

  • Materiales de marketing impresos
  • Chatbots de sitios web oficiales
  • Publicaciones para redes sociales
  • Correos electrónicos comerciales
  • Contenido de sitios web

La probabilidad de que el LLM de una empresa genere contenido multilingüe ofensivo es mayor si no hay un experto humano involucrado en el proceso. En algunos casos, un experto humano es fundamental para revisar y perfeccionar la localización o traducción de la IA. Estas son las posibles consecuencias a las que puede enfrentarse una empresa:

Posibles consecuencias de descuidar la IA responsable

  • Legales, incluidas demandas por difamación, discriminación o acoso
  • Sanciones normativas, multas, limitaciones, etc.
  • Daños a la reputación ante partes interesadas, clientes, etc.
  • Pérdida de clientes y colaboraciones empresariales
  • Pérdida de ingresos
  • Gastos por mitigación de daños, incluidas nuevas campañas publicitarias para restablecer la confianza, más desarrollo y entrenamiento de la IA, etc.
  • Reducción de la moral, lealtad y productividad de los empleados

Las empresas pueden experimentar solo una de estas consecuencias o una combinación de ellas. Tomar las medidas adecuadas para evitar estos efectos adversos es crucial. Lea nuestras recomendaciones a continuación. 

Cinco tácticas para garantizar el uso de una IA responsable y evitar contenidos dañinos

Plantéese implementar todas o al menos algunas de estas tácticas para garantizar que los resultados de su IA no sean involuntariamente sesgados, racistas, misóginos o simplemente ofensivos o culturalmente inapropiados. Para obtener resultados óptimos, trabaje con un grupo diverso de personas durante todo el proceso de supervisión y entrenamiento de la IA. Aportarán una base de conocimientos más amplia y sólida. Plantéese trabajar con expertos en entrenamiento de la IA, como los de Lionbridge, que combinan experiencia en IA, normas socioculturales, industrias y lingüística. Por último, algunas empresas pueden establecer políticas para los desarrolladores y usuarios de la IA. Estas políticas determinan las consecuencias del uso indebido de un sistema de IA. Incentivan a todos a contribuir para que la IA nunca genere contenido dañino u ofensivo.

cintas de datos digitalizados flotando

Táctica n.º1: seleccionar y organizar los datos

A la hora de llevar a cabo el entrenamiento de la IA, resulta fundamental recopilar los datos adecuados para enseñar a un LLM a crear contenidos libres de prejuicios, racismo, misoginia, etc. Las empresas deben adoptar un enfoque doble. En primer lugar, deben filtrar los datos de fuentes que puedan incluir puntos de vista problemáticos. El segundo paso es asegurarse de que los datos de entrenamiento para un LLM representen una amplia diversidad de voces y puntos de vista. Si el contenido es multilingüe o procede de distintos lugares o culturas, puede ser útil contar con la ayuda de expertos locales o lingüísticos para estas tareas. Lionbridge tiene una sólida base en lingüística y lenguaje. Esta experiencia nos posiciona de manera única para respaldar el procesamiento del lenguaje natural necesario en el aprendizaje automático. 

Táctica n.º2: crear un marco ético

Cuando se entrena a la IA para obtener resultados éticos, es esencial crear un marco ético. Al igual que ocurre con la creación de una guía de estilo o de un glosario de traducción, cada empresa debe elaborar una serie de normas y directrices a las que desea que se atengan todos sus contenidos. Utilice las normas del sector para ayudar a desarrollar el marco, garantizando el cumplimiento y mejores resultados. Es posible que estos marcos deban ampliarse y adaptarse para trabajos multilingües o culturales con el fin de incluir nuevas normas o tabúes lingüísticos y sociales. Las empresas también deben implementar protocolos y estructuras que garanticen un despliegue ético constante del modelo de IA. 

Táctica n.º3: entrenamiento previo ético y de prevención de sesgos

Durante las fases de entrenamiento previo y de perfeccionamiento, las empresas deben dar prioridad a las técnicas de mitigación de sesgos. Mediante el marco ético mencionado anteriormente, se debe enseñar al LLM a identificar y evitar la creación y el consumo de contenidos tendenciosos u ofensivos. Al poner a prueba el LLM durante el entrenamiento previo, es esencial utilizar la validación de datos para actualizar los conjuntos de datos con una comprensión fundamental de la ética y los sesgos. El marco ético también es útil para este paso.

Durante el entrenamiento, considere la posibilidad de crear mecanismos que muestren la toma de decisiones del modelo de la IA a la hora de identificar y rechazar contenido ofensivo. Esta transparencia ayudará más adelante si surgen problemas.

un globo de hexágonos rodeado de estrellas

Táctica n.º4: supervisar continuamente los resultados

Después de entrenar a su IA, las empresas deben seguir revisando sus resultados. Para los contenidos más importantes, puede merecer la pena recurrir a un revisor humano. Esto es particularmente útil para los contenidos diseñados para clientes que hablan diferentes idiomas y proceden de otras culturas. Es posible que las empresas también quieran recurrir a un revisor humano para realizar auditorías de material programadas periódicamente con el fin de garantizar la calidad y el cumplimiento de su marco ético. También puede considerar la posibilidad de crear oportunidades para que los clientes informen sobre contenido ofensivo e incorporar estos comentarios a los esfuerzos continuos de perfeccionamiento.

Táctica n.º5: volver a entrenar según sea necesario

Las empresas deben incluir nuevos ciclos de entrenamiento en sus protocolos por un par de razones. En primer lugar, es posible que de primeras el modelo de IA no «aprenda» del todo a aplicar correctamente el marco ético. Puede crear erróneamente contenido ofensivo o el propio marco ético puede ser deficiente. Una segunda razón a favor de nuevos ciclos de entrenamiento continuo es que las normas culturales cambian constantemente. Aunque un contenido no sea ofensivo hoy, podría serlo mañana, sobre todo si se desarrolla para clientes que hablan varios idiomas o proceden de otras culturas. Cuantas más culturas e idiomas estén involucrados, más matices requiere un marco ético.  

Póngase en contacto con nosotros

Inicie el entrenamiento de su IA con los expertos de Lionbridge. Hemos ayudado a incontables clientes a sacar el máximo partido de su LLM. Nos tomamos muy en serio el uso de una IA responsable y la confianza en la IA, y contamos con nuestro propio marco TRUST. Confíe en nosotros para garantizar que su LLM ayude a su empresa a lograr sus objetivos y genere un retorno de la inversión. Contacte con nosotros.

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

AUTORA O COLABORADORA
Samantha Keefe y Susan Morgan, VP de ventas de IA

Hablemos

Proporcione un correo electrónico corporativo