一个人通过橙色的镜片审视数据的规律
一个人通过橙色的镜片审视数据的规律

负责任的人工智能 (AI) 和 AI 训练

避免 LLM 生成带有偏见的内容和有害内容

随着越来越多的企业开始使用自己的大型语言模型 (LLM),负责任的 AI 也逐渐成为了一个值得关注的重要问题。负责任的 AI 有一大关键在于利用 AI 训练和数据检验来避免 AI 生成充满仇恨、有歧视性或带有偏见的内容。此类内容害处极大,还有可能引发大范围社会问题,包括但不限于:

  • 传播仇恨言论
  • 排挤特定人群
  • 造成情绪压力

带有偏见或歧视性的内容还会带来严重的商业后果。企业应当利用 AI 训练确保负责任地利用 AI,并采取我们推荐的措施。阅读文章,了解原因所在。

为何负责任的 AI 对商业内容来说举足轻重?

如果企业的 LLM 忽视了负责任的 AI,生成了带有歧视性、充满仇恨或带有偏见的内容,这不仅会造成上述社会问题,还会给企业造成严重后果。以下面向公众的内容可能会带来负面效应:

  • 营销材料印刷品
  • 官方网站的聊天机器人
  • 社交媒体帖子
  • 销售电子邮件
  • 网站文案

如果公司没有在流程中引入语言专家进行人工审查,LLM 就有更大几率产出冒犯性多语言内容。某些情况下,让语言专家来审校、润色 AI 的翻译/本地化成果是有必要的。以下列举了企业可能面临的一些后果:

忽视负责任的 AI 可能造成以下后果

  • 法律后果,包括因诽谤、歧视或侵扰而陷入诉讼
  • 监管处罚、罚款、禁令等等
  • 在诸如利益相关者和客户等群体中声誉受损
  • 客户和业务合作伙伴流失
  • 收入损失
  • 为弥补损害而产生的费用,包括为恢复信任而从新进行宣传、更多的 AI 训练和开发等
  • 员工士气、忠诚度和生产力下降

而企业可能遭受不止一项,甚至可能同时遭受好几项后果。必须要采取恰当措施避免这些后果,这十分重要。我们在下方给出了一些建议,敬请浏览。 

五大举措,确保负责任地利用 AI 并避免有害内容

请考虑全部采纳,或至少采纳其中一些举措,这样才能确保 AI 不会有意生成带有偏见、种族歧视、女性歧视,或冒犯性和触犯文化禁忌的内容。为了取得理想成果,建议要让多样化的人群参与 AI 训练和全程监督。他们各异的背景将带来广阔丰富的知识。考虑让 AI 训练专家参与,例如 Lionbridge 就有此类专家,他们能够结合 AI 专业知识、社会文化习俗、以及行业和语言专业知识,提出宝贵见解。近来,某些公司可能会为 AI 开发人员和用户制定一系列政策。这些政策会阐明 AI 系统使用不当的后果,促使人们帮助确保 AI 不会产生有害或冒犯性的内容。

一条数字化数据带漂浮在表面

举措 1 数据管护

进行 AI 训练时,收集恰当的数据十分重要,这样才能让 LLM 生成的内容没有偏见、种族歧视、女性歧视等。为此,公司应采取两种手段。一,从源文中筛除可能包含错误观点的数据。二,确保 LLM 的训练数据中包含丰富多样的观点和意见。如果内容有多种语言或涉及不同地域、文化,就要考虑让当地语言专家协助处理任务。Lionbridge 在语言领域有深厚的储备。如此出色的专业素养让我们成为在机器学习中为自然语言处理提供支持的不二之选。 

举措 2 制定道德准则

如果希望 AI 经过训练生成的内容符合道德规范,那么就有必要制定一套道德准则。类似于编写风格指南或翻译词汇表,公司应当制定一系列规则和指南,以确保所有内容都能够遵循这些规范。使用行业标准帮助制定这套准则,确保符合法规的同时也可取得更好的成果。如果要加入新的语种、面向新的社会群体、遵守新的文化禁忌,这些准则就可能需要扩充修改,以适应多种语言或文化。公司还应当为 AI 模型道德水准的持续提升设立相关流程和体系。 

举措 3 关于道德和偏见的预训练

在预训练和微调阶段,公司应当将重点放在减少偏见的技术上。通过上述道德准则,LLM 经过训练应当能够发现并避免带有偏见或冒犯性的内容 — 既不会生成也不会接收。在预训练阶段测试 LLM 时,务必要进行数据验证,然后更新数据集,确保 LLM 在伦理和偏见方面具有可靠的基础理解。道德准则在这一步也非常有用。

在训练中,要考虑建立一套机制,明确 AI 模型如何判断相关内容是否具有冒犯性,并对冒犯性内容予以拒绝。如果稍后出现问题,这种信息透明性将十分有用。

由六边形图案组成的球体,周围环绕星星

举措 4:对生成的内容持续监控

AI 训练完成后,公司仍应当持续审查生成的内容。对于关键内容应考虑引入人工审查。如果内容面向的是多语言、多文化背景的客户,那这一点就尤为重要。公司还应考虑对定期发布的资料进行人工审查,以此确保这些资料质量过关且符合道德准则。您还要考虑为客户设立一条渠道来上报冒犯性的内容,并根据这些反馈来持续改进。

举措 5:根据需要重新训练

公司应当在流程中引入重新训练的环节,原因如下所列。一,一开始,AI 模型可能还无法真正“学会”如何准确地应用道德准则。AI 仍旧可能错误地生成冒犯性的内容,或者道德准则本身就并不完善。二,文化习俗是不断演变的,因此需要重新训练。即使内容当前没有问题,未来也可能会具有冒犯性 — 尤其如果内容面向的客户群有多种语言和文化背景。文化和语种越丰富多样,道德准则就越要细致。  

联系我们

携手 Lionbridge 专家,开始 AI 训练吧。我们已经帮助许多客户充分挖掘 LLM 的价值。我们十分重视负责任地利用 AI 和 AI 信任,并为此制定了一套 TRUST 框架。相信我们,我们能够确保您的 LLM 帮助贵公司成功实现目标,赢得出色投资回报。敬请联系我们

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

作者和/或贡献者
Samantha Keefe 和 Susan Morgan,AI 销售副总裁

联系我们

请输入企业邮箱地址