利用由 AI 支持的技术助推全球沟通。

生成式人工智能 (GenAI)
- 人工智能 (AI) 训练

利用 Lionbridge Language Cloud 支持您的端到端本地化和内容生命周期

Language Cloud™ Platform
轻松连接
翻译团队
工作流程技术
Smart Content™
Smart MT™
Smart Data™

员工是我们引以为傲的资本,支撑着公司在 20 多年的时间里始终提供客户满意的服务。 

关于我们
关键事实
领导层
信任中心

选择语言:

选择出色的 AI 训练服务,改善输出质量

实现能力跃升,轻松驾驭多语环境。

立即联系我们,与经验丰富的专家交流。

微调和强化您的语言学习模型


我们的人工智能 (AI) 训练服务可确保您的模型擅长生成各种语言的理想内容并化解文化差异问题。

我们的生成式 AI (GenAI)/大型语言模型 (LLM) 训练服务采用先进技术,并对语言多样性有深刻了解,使公司能够制作触及全球受众心灵的精彩内容。

通过我们的 LLM 训练,AI 系统能够理解各个群体、各种语言的母语人士,并与其自然交流,同时通过以下方式保持公司的品牌形象:

  • 检测特定地区人群和目标受众可能认为生硬的输出。
  • 识别无法传递公司品牌形象的句法和词汇。
  • 把握地方方言的细微差别。

我们将 AI 专业知识、文化洞察力和语言能力无缝集成在一起,确保您的 AI 生成内容能够与全球不同受众建立紧密联系。

Lionbridge 的三大 AI 训练服务

以下流程是成功实施 AI 的根基。

数据注释

数据注释是对数据进行标记或分类的过程,可以为 AI 提供理解数据所需的语境。例如,图像可能标记有图中所含对象的信息,或者文本可能标记有与其情绪相关的信息。监督式学习是一种 AI 训练方式,AI 模型会利用注释数据做出预测,而数据注释对于监督式学习来说至关重要。数据注释的质量和准确性会显著影响 AI 模型的性能,这是因为它能指导学习过程,帮助 AI 理解数据。

数据收集

数据收集是 AI 训练的关键一环。其中包括收集相关优质数据,用以训练和测试 AI 模型。数据可以来自数据库、社交媒体、传感器或用户互动等各种来源,而且可能有不同格式,包含:文本、图像、音频或视频。收集具有代表性的多样化数据有助于确保 AI 系统能够理解并准确响应各种输入,从而使 AI 系统更加高效有效。

数据创建

数据创建是指生成可用于训练 AI 的新数据。这项工作可能包括创建合成数据和模仿实际数据的人工生成数据,或通过添加变化或干扰来增强现有数据。数据创建过程有助于增加训练数据量并提升其多样性,从而提高 AI 模型的性能。

《拥抱 AI:开启信任新时代》网络研讨会简要回顾

了解在本地化背景下 AI 信任的含义。阅读我们发布的 AI 信任网络研讨会回顾博客文章,获悉 AWS、Cisco 和 Lionbridge 的见解。

“当我们要求机器作出决策时,整个过程犹如黑匣子般神秘。这自然而然就会引出一个问题:‘我们是否应当信任机器作出的决策’?”

— Vincent Henderson,Lionbridge AI 专家

负责任的 AI

负责任的 AI 是指在符合道德、公平及尊重的原则下运用 AI,以保护人们的权利和价值观。这是一项复杂的工作,既要确保 AI 造福社会,又要防止其造成伤害或歧视。

Lionbridge 采用以下方式助您推动实现可靠的 AI。

利用本地化

在非英语内容方面,LLM 的表现往往不尽如人意。我们的本地化服务会在您的 AI 工具面向其他国家/地区推出之前对其进行性能评估,以提升内容质量和效果,并帮助全球客户更方便地使用 AI 工具。

我们会进行源内容分析、本地化以及编辑提示和对话以进行当地语言测试、评估和验证回复、回译和考虑语境信息。

我们通过识别亵渎性语言,采用包容性术语,并遵守与目标地区所接受的情绪和标准相一致的中性和包容性风格指南,推动实现可靠的 AI。

利用内容创作

不同文化对何为敏感内容的看法大相径庭。某话题在一个地区可能是众人皆笑的谈资,但在另一地区则可能成为不可调侃的禁忌。AI 应用程序的行为必须契合当地市场的价值观和习俗。我们的内容创作服务提供一般性当地市场指南,并创建本地特定的数据集,用于测试和微调引擎。

我们就敏感话题和当地价值观开展研究和文化咨询,为特定主题创建提示、编写对话和收集数据。

我们可以处理敏感话题,遵循相关法律和法规,设计如何在涉及个人身份信息 (PII) 时作出恰当回应,提供建议、意见并展现包容性,以及消除对不同身份群体的刻板印象和偏见,从而推动实现可靠的 AI。

利用众包评估

我们主要通过众包测试平台,利用全球众包成员的力量收集见解,并对文本、提示、音频、视频和图像进行标注和分类。众包可扩展性强,而且非常高效,是评估大量内容的理想选择。

我们收集有关当地话题的反馈,对回复进行评估,并按照从中立到具有冒犯性的不同程度对回复进行分类。

我们利用不同的视角来减少评估中存在的偏见,因为众包群体会评估公平性、对意图/情感进行分类,并检测幻觉(AI 编造的任何材料),从而推动实现可靠的 AI。

利用在真实环境中开展的测试

在某些情况下,如果测试环境已经准备就绪并且设置完毕,那么采用更为传统的实时环境测试方法是有道理的。

自然测试服务包括与 AI 系统进行实时、并非事先安排好“剧本”的互动,测试人员在 AI 系统回复的基础上继续与之互动,模拟用户真实的使用场景。

基于场景的测试服务使用预先确定的“剧本”和场景来评估 AI 在受控制条件下的回复。通常情况下,这种服务更侧重于测试技术性能,而非伦理或公平方面的表现。

我们要求测试人员输入特定的提示,或者在了解目标后创建提示,或者要求他们找出产品的缺陷。

在自然测试期间,我们设计考验 AI 伦理决策能力的场景,确保有不同人群参与,以及收集用户体验反馈,特别是与排斥、威胁或物化相关的感受,以此推动实现可靠的 AI。

认识我们的 AI 训练专家

Rafa Moral

创新副总裁

Rafa 负责与语言和翻译相关的研发活动,包括与机器翻译、内容剖析研究和分析、术语挖掘及语言质量保证和控制有关的各种项目。

Share on LinkedIn

Vincent Henderson

语言服务产品主管

Vincent 是 Lionbridge 产品与开发团队主管。他负责研究如何使用技术和 AI 来分析、评估、处理和生成全球化内容。他尤为关注大型语言模型对内容产品和服务产生的影响。

Share on LinkedIn

联系我们

请输入企业邮箱地址
勾选以下复选框即表示,您同意接收我们的营销电子邮件。您将收到 Lionbridge 提供的有关语言服务前沿思想、最佳实践和市场趋势的信息。

 

如需取消订阅以及了解我们如何处理您的个人数据,请参阅我们的隐私政策