線上研討會
增進臨床試驗研究中的包容性:COA 開發與翻譯
Lionbridge TRUST 架構
建立對 AI 應用的信任
生成式 AI
- AI 翻譯服務
- Content Remix
AI 訓練
- Aurora AI Studio™
機器翻譯
- MT 追蹤工具
Smart Onboarding
翻譯服務模式
內容服務
- 技術文件編寫
- 訓練與線上學習
- 財務報告
- 數位行銷
- SEO 與內容最佳化
翻譯服務
- 影音內容本地化
- 軟體本地化
- 網站本地化
- 受監管公司適用的翻譯服務
- 口譯
- 即時口譯
- 現場活動
- Lionbridge Language Quality Services
測試服務
- 功能品管與測試
- 相容性測試
- 互操作性測試
- 效能測試
- 輔助使用性測試
- 使用者體驗 / 客戶體驗測試
選擇語言:
越來越多公司企業開始使用自己的大型語言模型 (LLM),負責任的 AI 也因此成為深受重視的議題。負責任 AI 的其中一個重要環節,就是要透過 AI 訓練及資料驗證,來避免生成任何仇恨、偏執狹隘或有偏見的 AI 內容,因為這類內容不但可能對社會有害,甚至會助長許多社會整體問題,包括 (但不限於):
有偏見或偏執狹隘的內容,也會對商務帶來嚴重的後果。請繼續閱讀,了解公司企業為何應該使用 AI 訓練確保負責任的 AI 使用,以及實行我們建議的行動要項。
如果一間公司忽視負責任的 AI 這個議題,放任其 LLM 製作出偏執狹隘、仇恨或有偏見的內容,這不只會造成上述那些社會問題,更可能導致公司遭受一些嚴重後果。任何面向公眾的內容都可能會引發負面的反彈,包括:
一間公司的 LLM 流程中如果沒有人類專家參與其中,製作出冒犯他人的多語言內容的機率也會大增。在某些案例中,人類專家是審閱與完善 AI 翻譯或本地化所不可或缺的要素。以下是公司企業可能會面臨的嚴重後果:
忽視負責任的 AI 可能會面臨的嚴重後果
公司企業可能會遭到一個或多個這些嚴重後果,因此採取正確的步驟來避免這些負面結果自然非常重要。歡迎繼續閱讀我們以下的建議。
不妨考慮實作所有或至少其中幾個策略,確保您的 AI 不會無意間輸出含有偏見、種族歧視、厭女、冒犯他人或是觸犯文化禁忌的內容。如要取得最適宜的結果,在整個 AI 訓練及監控流程中,請盡量與由多元成員組成的小組合作,因為他們能提供更廣泛也更深刻的知識。另外,也請考慮跟例如 Lionbridge 這種集 AI、社會文化規範、產業及語言等專業能力於一身的 AI 訓練專家合作。最後,有些公司可能會針對 AI 開發人員和使用者制訂相關政策,並在這些政策中清楚闡述誤用 AI 系統的後果,藉此敦促並激勵每一個人都應盡心盡力,確保 AI 絕對不會製作出有害或冒犯他人的內容。
適當的資料收集對執行 AI 訓練非常重要,如此才能正確地教導 LLM,避免它們製作出含有偏見、種族歧視、厭女等不當訊息的內容。為了達到這個目標,公司企業應該採取雙管齊下的做法。首先,要從來源資料過濾掉那些觀點可能不妥的內容。第二步,則是要確認訓練 LLM 用的資料,能含有豐富多元的意見與觀點。如果內容是多語言或來自不同的地點或文化,那麼請在地人士或語言專家協助處理這些工作會很有幫助。Lionbridge 在語言學及語言上都擁有堅實的基礎,也正是這樣優秀的專業能力使我們獨樹一格,能支援機器學習不可或缺的自然語言處理。
要訓練 AI 產出符合倫理規範的輸出,就必須要建立倫理架構。正如為翻譯製作風格指南或翻譯詞彙表一樣,公司企業應該研擬一系列規則與指引,將所有內容都應遵循的要求納入其中。不妨參考業界標準來研擬架構,確保遵循相關法規並取得更好的結果。這些架構可能會需要配合多語言或不同文化的作業而進一步擴增或修改,加入新的語言以及社會規範或禁忌。此外,公司企業也應針對 AI 模型的持續倫理部署,建立相關章程和結構。
在預訓練以及細微調整等階段中,公司企業應該優先採用消除偏見的技巧。運用前述的倫理架構,應該能夠教導 LLM 辨識與避免製作和使用有偏見或冒犯他人的內容。在預訓練期間測試 LLM 時,一定要根據對倫理和偏見的基本理解,使用資料驗證來更新資料集。建立倫理架構對這個步驟也很有助益。
在訓練期間,可以考慮建立機制,呈現 AI 模型在辨識和拒絕冒犯他人內容時的決策過程,日後如有問題,這樣的透明度會有助於釐清錯誤。
完成 AI 訓練後,公司必須依然持續審閱輸出。如果是與關鍵任務相關的內容,可能得考慮由審閱人員處理,這種做法尤其適合專為不同語言或來自其他文化的客戶而設計的內容。公司也可以安排審閱人員定期檢查與稽核這些素材,確保其品質符合要求,同時也遵循倫理架構的規範。您也可以考慮建立回報機制,讓客戶可以回報冒犯內容,並將他們的意見反應納入持續進行的細微調整作業中。
基於兩個原因,公司應該在其計畫中加入再訓練的相關規定。首先,AI 模型剛開始可能尚未充分「學習」到如何正確地套用倫理架構,因而可能會錯誤地創作出冒犯他人的內容,又或者是倫理架構本身並不完備而有所疏漏。必須持續進行再訓練的第二個原因,則是文化規範本身也會不斷改變,在今天不會冒犯到他人的內容,明天卻可能成為眾矢之的;在為多種語言或來自其他文化的客戶開發內容時,更容易發生這種情況,因為涉及的文化和語言越多,倫理架構所需涵蓋的細微差異也就更多。
歡迎與 Lionbridge 專家合力展開 AI 訓練。我們已協助許多客戶充分發揮他們 LLM 的效益,亦非常嚴肅看待負責任的 AI 使用以及 AI 信任,更建立了自己的 TRUST 架構,因此您可放心將 LLM 事務託付給我們,我們會竭力協助貴公司達成目標並獲致高投資報酬率 (ROI)。歡迎與我們聯絡。
充滿熱忱的我們很希望了解您的需求,並與您分享我們的創新作法如何能賦予您更多能力,進而暢行無阻地拓展全球觸及範疇。準備好探索更多可能性嗎?歡迎給我們機會協助您達成目標。