語言:
語言:
內容服務
- 技術文件編寫
- 訓練與線上學習
- 財務報告
- 數位行銷
- SEO 與內容最佳化
翻譯服務
- 影音內容本地化
- 軟體本地化
- 網站本地化
- 受監管公司適用的翻譯服務
- 口譯
- 現場活動
測試服務
- 功能品管與測試
- 相容性測試
- 互操作性測試
- 效能測試
- 輔助使用性測試
- 使用者體驗 / 客戶體驗測試
解決方案
- 翻譯服務模式
- 機器翻譯
- Smart Onboarding™
- Aurora AI Studio™
我們的知識中心
- 理想的病患治療結果
- 本地化的未來
- 將創新力轉為免疫力
- COVID-19 資源中心
- 產業動盪系列
- 病人參與
- Lionbridge 深入見解
選擇語言:
想知道生成式 AI 目前在生命科學翻譯上有哪些使用案例嗎?想知道未來如何可能有效地使用 AI 工具?好奇它們有哪些可能的風險和倫理挑戰嗎?歡迎閱讀以下有關生成式 AI 和生命科學的常見問題,了解這些問題的答案。
請記住,大型語言模型 (LLM) 實際上是個文字填空機器,它們會根據特定的輸入或提示,產出最可能的輸出文字。實務上,這代表任何會因「資訊工作」(也就是花在消化和傳遞資訊的時間) 而妨礙到決策、創造力或其他寶貴人力的情況,這個技術都會有所助益。
一般而言,LLM 可以閱讀和理解任何人類可以閱讀和理解的東西。然而,至少以 LLM 目前的形式來說,它的一些侷限也導致它不適合應用於某些情況。舉例來說,LLM 能運算的脈絡文本長度 (又稱「窗口」) 有限,因此面對非常長的連續說明時,它們的表現可能就靠不住。此外,LLM 在驗證事實陳述上的表現也不可信賴,其計算或邏輯推理的能力也有限。
最後,也必須視內容類型來考慮網路資安的問題。使用市售的 LLM,往往意味著要將資訊傳輸給第三方系統,因此對於任何具備以下特色的內容,一定要特別小心謹慎地判斷:
這是個不斷快速創新的領域,但也已經浮現出一些很明顯的趨勢。Lionbridge 正致力開發解決方案,希望能為特定市場或目標客群生成或「重新合成」出新的內容。舉例來說,只要提供合適的輸入 (像是產品資訊表),我們就能指示 LLM 生成許多內容類型,像是部落格文章或社群媒體摘要等,還可視需要根據特定客群的要求來調整這些輸出的行文風格。同樣地,即使沒有傳統的來源文件,我們仍舊可以生成、修改和調整說明性質的內容。
我們也在探索如何可以應用 AI 加快翻譯和審閱工作流程的速度,減少所謂的「資訊摩擦」,進而讓人類專家得以專注心力擬定決策,最終獲致高品質成果。
Lionbridge 生命科學語言服務團隊目前已經有許多客戶對 AI 使用案例的應用深感興趣,包括臨床翻譯、行銷內容以及淺白用語摘要等領域。
未來的創新走向,很可能會著重在那些會因「資訊工作」而妨礙人類專家達成目標的領域,而生命科學的許多語言服務領域也正是如此。Lionbridge 正致力探索 AI 如何可以加快以下這些活動的進行:
不斷快速演進的 LLM,已發展出很多不同的模型,而且各有不同的長處與短處。以下是一些常見的目前風險:
事實方面的錯誤:LLM 是設計用來產出回應的,它們無法評估訓練它們所用的資訊是否真實。
運算:目前的 LLM 在算數能力上是出了名的差。
內文脈絡的長度限制:與 LLM 互動時可以輸入的「內文脈絡長度」(context window),會因為可供使用的運算資源有限而因此受限。
資料隱私:除非您是自己代管和訓練自己專屬的 LLM,否則 AI 工具就跟任何其他第三方系統一樣,會有隱私方面的隱憂。因此,請審慎判斷可以將哪些資訊傳輸給它們。
想要降低使用 AI 工具的風險,請確保所有的使用者都能充分了解相關資訊。建議針對 AI 的使用擬定清楚明確的政策,並提供使用者可靠且包含最新資訊的學習資源。這些政策與訓練資源要兼顧現有的法規遵循責任。歐盟以及其他地方的主管機關,業已在考慮針對 AI 制訂相關法規。
這個領域不斷湧出令人振奮的新發展,例如在為新療法篩選可能的候選藥品成分上,AI 的角色可能會越來越吃重。從更廣泛的臨床領域來看,LLM 可能會有益於以下方面:
消化龐大和/或結構鬆散的資料集
管理和監控安全性監督資料
減少臨床語言工作流程的文書工作量並加快決策時間
協助撰寫淺白用語內容,並提高內容的方便取用性
能更快速地部署訓練和學習資源
生成式 AI 並不一定會帶來任何新的倫理挑戰,但是它的應用確實應該受到監督。一些特別容易產生疑慮的領域包括:
訓練或其他 AI 互動所使用的智慧財產,其著作權及所有權歸屬的問題
當部署或整合涉及 LLM 時,是否能遵循 ALCOA 原則
能否遵循隱私法規嚴格保護病人資料和其他資料
對涉及臨床資料的 AI 工作流程態度需更加謹慎
對涉及供病人使用內容的 AI 工作流程態度需更加謹慎
對生命科學翻譯服務以及臨床試驗翻譯服務的供應商來說,他們其實很熟悉 AI 目前以及日後可能會有的大多數缺點,因為它們就跟人類可能會犯的錯誤並無二致。Lionbridge 開發了精密的制衡機制系統,來抵抗和預防 AI 或是人類可能會犯的錯誤。無論 AI 工具變得多麼先進,它們仍然會犯錯,而我們的系統將可解決 (或防範) 這些錯誤。