语言:
语言:
内容服务
- 技术文献写作
- 培训和在线学习
- 财务报告
- 数字营销
- 搜索引擎优化 (SEO) 和内容优化
翻译服务
- 视频本地化
- 软件本地化
- 受监管内容翻译与本地化
- 口译
- 现场活动
- 网站本地化
测试服务
- 功能 QA 和测试
- 兼容性测试
- 互操作性测试
- 性能测试
- 辅助功能测试
- UX/CX 测试
解决方案
- 翻译服务模式
- 机器翻译
- Smart Onboarding™
- Aurora AI Studio™
Lionbridge 知识中心
- 改善患者治疗结果
- 本地化的未来
- 将创新想法转化为免疫实践
- 新冠肺炎疫情资源中心
- 颠覆系列
- 患者配合度
- Lionbridge 见解
选择语言:
想了解生成式人工智能 (GenAI) 当前应用于生命科学翻译的哪些应用场景?想知晓如何在未来有效利用 AI 工具?想了解该技术可能会招致哪些风险和伦理挑战?阅读下文,了解这些生成式 AI 与生命科学常见问题的答案。
不要忘记,大型语言模型 (LLM) 本质上是文本补全机器。它们能根据给定的输入内容或提示输出最相关的内容。也就是说,在实践中,如果“信息工作”(也就是花在吸收和传递信息上的时间)妨碍了制定决策、发挥创造力或开展其他有价值的人类工作,LLM 就能有所助益。
一般来说,LLM 可以阅读和理解人类所能阅读和理解的任意内容。但是,目前的 LLM 存在局限性,尚无法应用于某些场景。例如,LLM 的上下文“窗口”(上下文长度)有限。因此,如果指令序列冗长,它们的表现可能不可靠。此外,LLM 在验证事实方面靠不住,而且计算或逻辑推理能力有限。
最后,必须针对要处理的内容类型考虑网络安全问题。使用市面上的 LLM 会向第三方系统传输信息。将 LLM 应用于以下类型的内容时,必须保持谨慎并加以判断:
在这方面,创新速度可谓“一日千里”,但也显露出了一些明确趋势。Lionbridge 正在开发一类解决方案,用于针对特定市场或受众生成或“重新合成”新内容。例如,给定适当的输入(如产品信息表),我们会指示 LLM 生成从博客文章到社交媒体贴文的各类内容。我们可以根据受众的具体要求,按需调整这些输出内容的风格。同样,无需传统源文件,也可以生成、修改和改编教学内容。
我们还在探索如何利用 AI 加快翻译和审校工作流程,以消除“信息摩擦”。这一应用将使人类专家能够专注于最终影响质量的决策。
Lionbridge 生命科学语言服务团队目前有些客户对 AI 的各种应用很感兴趣,例如临床翻译、营销内容和通俗语言摘要。
未来,“信息工作”阻碍人类专家实现目标的领域可能会迸发出创新。这适用于生命科学语言服务的许多领域。Lionbridge 正在探索利用 AI 加速这些活动:
LLM 的发展日新月异,不同的模型各有所长所短。以下是各模型目前普遍存在的一些风险。
事实错误:LLM 旨在给出答复。无法评估接收的训练信息是否真实。
计算:目前的 LLM 在算术方面表现得非常糟糕。
上下文长度局限性:可用计算资源限制了 LLM 在交互过程中所能支持的“上下文窗口”大小。
数据隐私:AI 工具无异于其他第三方系统,除非您自行托管和训练自己的 LLM。因此,在向其传递信息时,请保持谨慎并加以判断。
确保所有用户都充分了解情况,从而降低使用 AI 工具的风险。制定明确的 AI 使用政策,为用户提供可靠、与时俱进的学习资源。政策和训练资源应该介绍现有的合规义务。欧盟和其他国家/地区的当局已在考虑出台 AI 法规。
临床研究领域不断涌现出很多激动人心的进展。例如,在选择新疗法的候选药物分子方面,AI 有可能发挥越来越大的作用。在更广泛的临床领域,LLM 可在以下方面发挥积极作用:
理解大型和/或结构不佳的数据集
管理和监视安全监测数据
减少临床语言工作流程中的记录任务,加快做出决策
协助编写通俗易懂的内容,并改善内容的无障碍性
更快速地部署训练和学习资源
GenAI 并不一定会带来新的伦理挑战。不过,其应用应受到严格审查。特别值得关注的领域可能包括:
训练或其他 AI 互动中使用的知识产权的著作权和所有权
在涉及 LLM 的部署和集成中遵守 ALCOA(可归因性,易读性,同时性,原始性,准确性)原则
严格保护患者数据和其他受隐私法规保护的数据
更加谨慎地对待使用临床数据的 AI 工作流程
更加谨慎地对待涉及面向患者的内容的 AI 工作流程
生命科学翻译服务和临床试验翻译服务提供商对于 AI 当前和潜在的大多数缺陷并不陌生。这些错误与人类可能犯的错误一般无二。Lionbridge 开发了一套复杂的制衡系统,以消除和防止 AI 或人为造成的错误。无论 AI 工具变得多么先进,它们仍然会出错。我们的系统将解决(或防范)这些问题。