Lionbridge 的 TRUST 框架
建立对 AI 应用的信任
选择语言:
随着越来越多的企业开始使用自己的大型语言模型 (LLM),负责任的 AI 也逐渐成为了一个值得关注的重要问题。负责任的 AI 有一大关键在于利用 AI 训练和数据检验来避免 AI 生成充满仇恨、有歧视性或带有偏见的内容。此类内容害处极大,还有可能引发大范围社会问题,包括但不限于:
带有偏见或歧视性的内容还会带来严重的商业后果。企业应当利用 AI 训练确保负责任地利用 AI,并采取我们推荐的措施。阅读文章,了解原因所在。
忽视负责任的 AI 可能造成以下后果
而企业可能遭受不止一项,甚至可能同时遭受好几项后果。必须要采取恰当措施避免这些后果,这十分重要。我们在下方给出了一些建议,敬请浏览。
请考虑全部采纳,或至少采纳其中一些举措,这样才能确保 AI 不会有意生成带有偏见、种族歧视、女性歧视,或冒犯性和触犯文化禁忌的内容。为了取得理想成果,建议要让多样化的人群参与 AI 训练和全程监督。他们各异的背景将带来广阔丰富的知识。考虑让 AI 训练专家参与,例如 Lionbridge 就有此类专家,他们能够结合 AI 专业知识、社会文化习俗、以及行业和语言专业知识,提出宝贵见解。近来,某些公司可能会为 AI 开发人员和用户制定一系列政策。这些政策会阐明 AI 系统使用不当的后果,促使人们帮助确保 AI 不会产生有害或冒犯性的内容。
进行 AI 训练时,收集恰当的数据十分重要,这样才能让 LLM 生成的内容没有偏见、种族歧视、女性歧视等。为此,公司应采取两种手段。一,从源文中筛除可能包含错误观点的数据。二,确保 LLM 的训练数据中包含丰富多样的观点和意见。如果内容有多种语言或涉及不同地域、文化,就要考虑让当地语言专家协助处理任务。Lionbridge 在语言领域有深厚的储备。如此出色的专业素养让我们成为在机器学习中为自然语言处理提供支持的不二之选。
如果希望 AI 经过训练生成的内容符合道德规范,那么就有必要制定一套道德准则。类似于编写风格指南或翻译词汇表,公司应当制定一系列规则和指南,以确保所有内容都能够遵循这些规范。使用行业标准帮助制定这套准则,确保符合法规的同时也可取得更好的成果。如果要加入新的语种、面向新的社会群体、遵守新的文化禁忌,这些准则就可能需要扩充修改,以适应多种语言或文化。公司还应当为 AI 模型道德水准的持续提升设立相关流程和体系。
在预训练和微调阶段,公司应当将重点放在减少偏见的技术上。通过上述道德准则,LLM 经过训练应当能够发现并避免带有偏见或冒犯性的内容 — 既不会生成也不会接收。在预训练阶段测试 LLM 时,务必要进行数据验证,然后更新数据集,确保 LLM 在伦理和偏见方面具有可靠的基础理解。道德准则在这一步也非常有用。
在训练中,要考虑建立一套机制,明确 AI 模型如何判断相关内容是否具有冒犯性,并对冒犯性内容予以拒绝。如果稍后出现问题,这种信息透明性将十分有用。
AI 训练完成后,公司仍应当持续审查生成的内容。对于关键内容应考虑引入人工审查。如果内容面向的是多语言、多文化背景的客户,那这一点就尤为重要。公司还应考虑对定期发布的资料进行人工审查,以此确保这些资料质量过关且符合道德准则。您还要考虑为客户设立一条渠道来上报冒犯性的内容,并根据这些反馈来持续改进。
公司应当在流程中引入重新训练的环节,原因如下所列。一,一开始,AI 模型可能还无法真正“学会”如何准确地应用道德准则。AI 仍旧可能错误地生成冒犯性的内容,或者道德准则本身就并不完善。二,文化习俗是不断演变的,因此需要重新训练。即使内容当前没有问题,未来也可能会具有冒犯性 — 尤其如果内容面向的客户群有多种语言和文化背景。文化和语种越丰富多样,道德准则就越要细致。
携手 Lionbridge 专家,开始 AI 训练吧。我们已经帮助许多客户充分挖掘 LLM 的价值。我们十分重视负责任地利用 AI 和 AI 信任,并为此制定了一套 TRUST 框架。相信我们,我们能够确保您的 LLM 帮助贵公司成功实现目标,赢得出色投资回报。敬请联系我们。
我们渴望倾听您的需求,并向您展示我们的创新功能如何助您冲破藩篱、拓宽全球舞台。期待探索新机遇?我们随时待命,愿助您扬帆启航。