駕馭 Lionbridge Language Cloud 的強大威力,以支援您的端對端本地化作業和內容生命週期

Language Cloud™ 平台
連線能力
翻譯社群
工作流程技術
Smart Content™
Smart MT™
Smart Data™

我們擁有引以為傲的出色員工,20 多年來成功協助無數公司企業打動他們的客戶。 

公司簡介
重要資訊
領導團隊
信任中心

選擇語言:

Person seeing and hearing complex data

生成式 AI 與生命科學線上研討會

常見問題集

想知道生成式 AI 目前在生命科學翻譯上有哪些使用案例嗎?想知道未來如何可能有效地使用 AI 工具?好奇它們有哪些可能的風險和倫理挑戰嗎?歡迎閱讀以下有關生成式 AI 和生命科學的常見問題,了解這些問題的答案。

如何將生成式 AI 與生命科學相結合以應用在內容製作和最佳化上?

請記住,大型語言模型 (LLM) 實際上是個文字填空機器,它們會根據特定的輸入或提示,產出最可能的輸出文字。實務上,這代表任何會因「資訊工作」(也就是花在消化和傳遞資訊的時間) 而妨礙到決策、創造力或其他寶貴人力的情況,這個技術都會有所助益。

看著螢幕上數位數據的眼睛

哪些類型的內容適合生成式 AI 使用案例?哪些類型不適合?

一般而言,LLM 可以閱讀和理解任何人類可以閱讀和理解的東西。然而,至少以 LLM 目前的形式來說,它的一些侷限也導致它不適合應用於某些情況。舉例來說,LLM 能運算的脈絡文本長度 (又稱「窗口」) 有限,因此面對非常長的連續說明時,它們的表現可能就靠不住。此外,LLM 在驗證事實陳述上的表現也不可信賴,其計算或邏輯推理的能力也有限。

最後,也必須視內容類型來考慮網路資安的問題。使用市售的 LLM,往往意味著要將資訊傳輸給第三方系統,因此對於任何具備以下特色的內容,一定要特別小心謹慎地判斷:

  • 機密
  • 專利
  • 受隱私法律所規範

目前生命科學中有哪些生成式 AI 使用案例的例子?

這是個不斷快速創新的領域,但也已經浮現出一些很明顯的趨勢。Lionbridge 正致力開發解決方案,希望能為特定市場或目標客群生成或「重新合成」出新的內容。舉例來說,只要提供合適的輸入 (像是產品資訊表),我們就能指示 LLM 生成許多內容類型,像是部落格文章或社群媒體摘要等,還可視需要根據特定客群的要求來調整這些輸出的行文風格。同樣地,即使沒有傳統的來源文件,我們仍舊可以生成、修改和調整說明性質的內容。

我們也在探索如何可以應用 AI 加快翻譯和審閱工作流程的速度,減少所謂的「資訊摩擦」,進而讓人類專家得以專注心力擬定決策,最終獲致高品質成果。

Lionbridge 生命科學語言服務團隊目前已經有許多客戶對 AI 使用案例的應用深感興趣,包括臨床翻譯、行銷內容以及淺白用語摘要等領域。

生成式 AI 與生命科學未來有哪些可能的使用案例?

未來的創新走向,很可能會著重在那些會因「資訊工作」而妨礙人類專家達成目標的領域,而生命科學的許多語言服務領域也正是如此。Lionbridge 正致力探索 AI 如何可以加快以下這些活動的進行:

  • 撰寫和編輯淺白用語摘要
  • 撰寫臨床工作流程中的比較審閱
  • 臨床結果評估的跨國協調
正在查看數位病歷表的醫師

將生成式 AI 與生命科學結合有何風險?

不斷快速演進的 LLM,已發展出很多不同的模型,而且各有不同的長處與短處。以下是一些常見的目前風險:

  • 事實方面的錯誤:LLM 是設計用來產出回應的,它們無法評估訓練它們所用的資訊是否真實。

  • 運算:目前的 LLM 在算數能力上是出了名的差。

  • 內文脈絡的長度限制:與 LLM 互動時可以輸入的「內文脈絡長度」(context window),會因為可供使用的運算資源有限而因此受限。

  • 資料隱私:除非您是自己代管和訓練自己專屬的 LLM,否則 AI 工具就跟任何其他第三方系統一樣,會有隱私方面的隱憂。因此,請審慎判斷可以將哪些資訊傳輸給它們。

如何解決或降低在生命科學工作流程或內容上使用 AI 工具的風險?

想要降低使用 AI 工具的風險,請確保所有的使用者都能充分了解相關資訊。建議針對 AI 的使用擬定清楚明確的政策,並提供使用者可靠且包含最新資訊的學習資源。這些政策與訓練資源要兼顧現有的法規遵循責任。歐盟以及其他地方的主管機關,業已在考慮針對 AI 制訂相關法規。

AI 如何能夠最佳化臨床研究?

這個領域不斷湧出令人振奮的新發展,例如在為新療法篩選可能的候選藥品成分上,AI 的角色可能會越來越吃重。從更廣泛的臨床領域來看,LLM 可能會有益於以下方面:

  • 消化龐大和/或結構鬆散的資料集

  • 管理和監控安全性監督資料

  • 減少臨床語言工作流程的文書工作量並加快決策時間

  • 協助撰寫淺白用語內容,並提高內容的方便取用性

  • 能更快速地部署訓練和學習資源

關於生成式 AI 與生命科學,有哪些倫理方面的疑慮?

生成式 AI 並不一定會帶來任何新的倫理挑戰,但是它的應用確實應該受到監督。一些特別容易產生疑慮的領域包括:

  • 訓練或其他 AI 互動所使用的智慧財產,其著作權及所有權歸屬的問題

  • 當部署或整合涉及 LLM 時,是否能遵循 ALCOA 原則

  • 能否遵循隱私法規嚴格保護病人資料和其他資料

  • 對涉及臨床資料的 AI 工作流程態度需更加謹慎

  • 對涉及供病人使用內容的 AI 工作流程態度需更加謹慎

生命科學中的生成式 AI 應用有何限制?

對生命科學翻譯服務以及臨床試驗翻譯服務的供應商來說,他們其實很熟悉 AI 目前以及日後可能會有的大多數缺點,因為它們就跟人類可能會犯的錯誤並無二致。Lionbridge 開發了精密的制衡機制系統,來抵抗和預防 AI 或是人類可能會犯的錯誤。無論 AI 工具變得多麼先進,它們仍然會犯錯,而我們的系統將可解決 (或防範) 這些錯誤。

與我們聯絡

想要為您的內容製作和最佳化、多語言臨床試驗以及臨床試驗翻譯作業實作 AI 嗎?Lionbridge 的生命科學翻譯服務會持續不斷納入創新且安全的 AI 應用,以期能在整個翻譯流程、內容生成、淺白用語摘要以及更多事務中為客戶提供完善的協助。歡迎與我們聯絡,了解我們的團隊如何能滿足您的語言需求。

請輸入公司電子郵件
勾選以下的方塊,就代表您同意收到我們的行銷電子郵件。您將會收到來自 Lionbridge 語言服務領域的領導思維、最佳實務做法以及市場趨勢的相關資訊。

如要取消訂閱,以及了解我們如何處理您的個人資料,請參閱我們的隱私權政策

linkedin sharing button

作者
生命科學技術解決方案主管 Paraic O’Donnell
  • #regulated_translation_localization
  • #technology
  • #ai
  • #life_sciences
  • #generative-ai
  • #blog_posts