SELECCIONAR IDIOMA:

person with streams of data and light

Autocorrección de IA

Qué hay que saber actualmente

Para tener éxito, es esencial adoptar la IA generativa, especialmente cuando la competencia está haciendo lo mismo con sus respectivos flujos de trabajo, traducciones o procesos de optimización y creación de contenido. En cuanto al uso de la IA generativa, uno de sus elementos fundamentales es la autocorrección. Lamentablemente, hay diversos factores que explican por qué los modelos lingüísticos de gran tamaño (LLM) pueden ofrecer resultados poco precisos. El motivo es que es posible que un LLM haya sido entrenado con datos que incluyen información problemática o errónea. Las herramientas de IA, en ocasiones, también pueden tener «alucinaciones» o inventarse información. Para abordar los problemas relacionados con el resultado generado por una IA, es posible adoptar ciertas medidas relativas a la «autocorrección» en el conjunto inicial de prompts. (Algunos expertos también denominan este concepto «autocrítica» o «autoperfeccionamiento»). Diversos estudios han puesto a prueba algunos métodos que exigen a los LLM que examinen sus resultados y perfeccionen las respuestas antes de ofrecérselas a los usuarios. Siga leyendo nuestra publicación del blog para obtener más información sobre las técnicas que los usuarios utilizan actualmente para introducir medidas de autocorrección en sus soluciones de IA (o las medidas que piden a su proveedor de soluciones de IA que implemente para ese fin). En este artículo del blog también hablaremos sobre las limitaciones que presenta la autocorrección de IA.

Estrategias de autocorrección de la IA más habituales

Actualmente, la autocorrección de la IA se aplica de estas cuatro formas:

1. Uso de prompts de la máxima precisión. En ocasiones, resulta eficaz añadir una petición dentro de la serie de prompts que refuerce la precisión del contenido. Un ejemplo muy conocido de esta estrategia es este prompt que se publicó en X:

«Eres un modelo de lenguaje autorregresivo que se ha perfeccionado con el ajuste de instrucciones y el RLHF. Ofreces respuestas precisas, basadas en hechos, razonadas y con matices, que presentan un razonamiento brillante. Si crees que podría no haber una respuesta correcta, dilo».

2. Transformación de la herramienta de IA en un experto. Una buena forma de evitar las imprecisiones consiste en convertir la herramienta de IA en un experto que tenga menos probabilidades de cometer errores. Muchos usuarios y prestadores de servicios de IA, entre ellos, un grupo de desarrolladores de GitHub, están creando prompts que ordenan a las herramientas de IA que actúen como expertos. En particular, los mejores perfiles de expertos son aquellos que poseen el máximo nivel de detalle sobre el seguimiento de las mejores prácticas, siempre y cuando estas tengan una amplia aceptación. Si se utilizan órdenes demasiado genéricas, la herramienta de IA puede comenzar a producir contenido con alucinaciones. Por ejemplo, no basta con decir «Eres un orientador laboral excelente», sino que los prompts deben incluir directrices sobre las mejores prácticas que suelen seguir estos profesionales. Otra buena práctica consiste en poner a prueba una serie de prompts con una tarea cuya respuesta ya se conoce. Esto ayudará a determinar dónde es necesario optimizar los prompts de perfiles de expertos. En ocasiones, incluso puede tener sentido desarrollar varias iteraciones de un prompt de perfil de experto en función del tipo de tarea. Un grupo de desarrolladores de GitHub elaboró una lista con 15 series de prompts que emplearon para transformar una IA en un asistente experto. Aunque no son los únicos que han hecho esto, su listado es muy completo.

Prompts de expertos en IA:

1. Orientador laboral

2. Entrevistador para un puesto concreto

3. Asistente de pronunciación en inglés

4. Anunciante

5. Responsable de redes sociales

6. Tutor de redacción de IA para estudiantes

7. Contable

8. Consultor de diseño web

9. Actúa como un desarrollador de UX/IU

10. Arquitecto de TI

11. Especialista en ciberseguridad

12. Ingeniero de aprendizaje automático

13. Experto en TI

14. Generador de fórmulas de Excel

15. Chef privado

3. Incorporación de la redacción de prompts «pre-hoc» o «post-hoc». Es posible añadir prompts que modifiquen el estilo del resultado de una IA. Puede que ese estilo deba ser más formal o informal, o que tenga que dirigirse a un público con un nivel educativo alto o de secundaria. Cuando los prompts se añaden después de que se genere el resultado, se denominan «prompts post-hoc». De acuerdo con un reciente proyecto de investigación elaborado por Google DeepMind, los mejores resultados se obtienen por igual a partir de una buena redacción de prompts tanto pre-hoc como post-hoc.

capas de pliegues naranjas con una imagen de IA

4. Uso de prompts para abordar los sesgos. Si los LLM no se entrenan con los datos adecuados, sus resultados pueden reflejar los sesgos de los millones de personas que lanzan contenido de odio en internet. De acuerdo con un estudio reciente elaborado por el laboratorio de IA Anthropic, es posible utilizar el aprendizaje por refuerzo con retroalimentación humana (RLHF) para entrenar un LLM con el fin de generar un resultado que apenas presente señales de racismo, edadismo o misoginia, entre otros, o que las elimine por completo. Para ello, durante la creación de la IA es necesario incluir instrucciones que contemplen los principios éticos generales que elija su equipo. Una parte de este proceso consiste en añadir en los prompts una línea que evite que el LLM confíe en filosofías o estereotipos nocivos. En algunos casos, se ha demostrado que las herramientas de IA han comenzado a aplicar una «discriminación positiva» en sus resultados, lo cual incluso podría superar las expectativas.

Limitaciones de la autocorrección de la IA

Aunque las medidas de autocorrección de la IA pueden ser potentes, diversos estudios también demuestran que tienen sus limitaciones. El mismo estudio de Google DeepMind detectó que, en ocasiones, los LLM tienen un peor rendimiento cuando incluyen medidas de autocorrección. En aquellos casos en los que no repercuta en el rendimiento, la autocorrección no es eficaz en cada serie de prompts de la IA, especialmente cuando no se usan fuentes externas (una calculadora, un ejecutor de código, una base de conocimientos, etc.). Para obtener los mejores resultados, las medidas de autocorrección necesitan acceder a un conjunto de datos de referencia que contengan verdades básicas integradas. Con estas referencias, la herramienta de IA sabrá cuándo deber detener su proceso de razonamiento y, de este modo, se evitará un exceso de correcciones de su resultado. Evidentemente, los investigadores señalaron que algunas tareas eran demasiado complejas como para poder dotar a una herramienta de IA de este tipo de referencias.

En ese mismo estudio también se descubrió otra limitación de la autocorrección de la IA que se produce cuando se utilizan aplicaciones de LLM con múltiples agentes. En este enfoque, se pide al LLM que realice múltiples tareas como si fuesen «agentes», o actores, distintos.

Por ejemplo:

El LLM genera código como un agente. Después, también verifica el código como otro agente.

El LLM realiza un debate con dos agentes, cada uno de los cuales defiende un bando.

El problema reside en que los agentes múltiples emplean una especie de votación mayoritaria para decidir qué respuesta es correcta y, de este modo, crean una especie de cámara de eco o «autocoherencia» y no una precisión real.

serie de botones y gráficos

El valor de la intervención humana

Las limitaciones que presenta la autocorrección de IA hacen hincapié en lo esencial que resulta la intervención humana. Las herramientas de IA pueden mejorar la eficiencia de la traducción, pero, a menudo, necesitan que un ser humano intervenga en algún punto. Puede que una persona tenga que desarrollar la mejor serie de prompts posible, comprobar una muestra inicial o verificar el resultado al final. Las medidas de autocorrección pueden servir de ayuda a lo largo de todo el proceso, pero en ningún caso sustituirán la intervención humana.

Para tal fin, es esencial trabajar con expertos en consultoría de IA, como los de Lionbridge, quienes le ayudarán a abordar la brecha de confianza de la IA. Con su ayuda:

  • Podrá reducir al mínimo el riesgo de que se obtengan resultados o contenido poco fiable o de mala calidad.

  • Podrá garantizar la seguridad de los datos en caso de ciberataques o de que se produzca cualquier tipo de vulneración.

  • Podrá desarrollar su creatividad y ayudar a generar nuevo contenido o nuevos resultados que sean atractivos y originales.

  • Podrá verificar y corregir la precisión de los resultados, especialmente en materiales complejos que exigen una formación o amplios conocimientos prácticos.

  • Nunca tratarán de venderle tecnologías, soluciones o suscripciones innecesarias.

  • Podrá compartir todo el proceso y pedir aportaciones, comentarios y personalizaciones de principio a fin.

Póngase en contacto con nosotros

¿Tiene interés en aprender a utilizar la IA para automatizar la creación de contenido, la optimización de contenidos para sitios web u otros servicios lingüísticos? El equipo de expertos en IA de Lionbridge está a su disposición para ayudarle. Póngase en contacto con nosotros.

Proporcione un correo electrónico corporativo
Al marcar la casilla de abajo, usted confirma que está de acuerdo en recibir nuestra publicidad por correo electrónico. Le enviaremos artículos escritos por líderes de opinión, prácticas recomendadas y las últimas tendencias en servicios lingüísticos de Lionbridge.

Para cancelar la suscripción y para informarse de cómo tratamos sus datos personales, consulte nuestra Política de Privacidad.

linkedin sharing button

ESCRITO POR
Samantha Keefe y Thomas Gaitley, director de resiliencia
  • #technology
  • #translation_localization
  • #ai
  • #generative-ai
  • #blog_posts