造訪 Lionbridge Games

選擇語言:

一個人正透過橘色的眼鏡檢視資料模式
一個人正透過橘色的眼鏡檢視資料模式

AI 訓練與負責任的 AI

避免您的 LLM 產出有偏見與有害的輸出

越來越多公司企業開始使用自己的大型語言模型 (LLM),負責任的 AI 也因此成為深受重視的議題。負責任 AI 的其中一個重要環節,就是要透過 AI 訓練及資料驗證,來避免生成任何仇恨、偏執狹隘或有偏見的 AI 內容,因為這類內容不但可能對社會有害,甚至會助長許多社會整體問題,包括 (但不限於):

  • 散播仇恨言論
  • 邊緣化特定群體或社區
  • 引發情緒困擾

有偏見或偏執狹隘的內容,也會對商務帶來嚴重的後果。請繼續閱讀,了解公司企業為何應該使用 AI 訓練確保負責任的 AI 使用,以及實行我們建議的行動要項。

負責任的 AI 對商務內容為何非常重要?

如果一間公司忽視負責任的 AI 這個議題,放任其 LLM 製作出偏執狹隘、仇恨或有偏見的內容,這不只會造成上述那些社會問題,更可能導致公司遭受一些嚴重後果。任何面向公眾的內容都可能會引發負面的反彈,包括:

  • 行銷素材印刷品
  • 官方網站聊天機器人
  • 社群媒體貼文
  • 銷售電子郵件
  • 網站文案

一間公司的 LLM 流程中如果沒有人類專家參與其中,製作出冒犯他人的多語言內容的機率也會大增。在某些案例中,人類專家是審閱與完善 AI 翻譯或本地化所不可或缺的要素。以下是公司企業可能會面臨的嚴重後果:

忽視負責任的 AI 可能會面臨的嚴重後果

  • 法律責任,包括誹謗、歧視或騷擾等訴訟
  • 法規懲處、罰款、限制等
  • 在利害關係人、客戶等人士間的聲譽受損
  • 失去客戶和商務合作夥伴
  • 營收損失
  • 為緩減損失而花費的開銷,包括推出新的公關措施以重建信任、更多 AI 訓練及開發心力等
  • 員工士氣、忠誠度及生產力的下降

公司企業可能會遭到一個或多個這些嚴重後果,因此採取正確的步驟來避免這些負面結果自然非常重要。歡迎繼續閱讀我們以下的建議。 

確保負責任 AI 使用及避免有害內容的 5 個策略

不妨考慮實作所有或至少其中幾個策略,確保您的 AI 不會無意間輸出含有偏見、種族歧視、厭女、冒犯他人或是觸犯文化禁忌的內容。如要取得最適宜的結果,在整個 AI 訓練及監控流程中,請盡量與由多元成員組成的小組合作,因為他們能提供更廣泛也更深刻的知識。另外,也請考慮跟例如 Lionbridge 這種集 AI、社會文化規範、產業及語言等專業能力於一身的 AI 訓練專家合作。最後,有些公司可能會針對 AI 開發人員和使用者制訂相關政策,並在這些政策中清楚闡述誤用 AI 系統的後果,藉此敦促並激勵每一個人都應盡心盡力,確保 AI 絕對不會製作出有害或冒犯他人的內容。

如緞帶般起伏漂流的數位化資料

策略 #1:資料篩理

適當的資料收集對執行 AI 訓練非常重要,如此才能正確地教導 LLM,避免它們製作出含有偏見、種族歧視、厭女等不當訊息的內容。為了達到這個目標,公司企業應該採取雙管齊下的做法。首先,要從來源資料過濾掉那些觀點可能不妥的內容。第二步,則是要確認訓練 LLM 用的資料,能含有豐富多元的意見與觀點。如果內容是多語言或來自不同的地點或文化,那麼請在地人士或語言專家協助處理這些工作會很有幫助。Lionbridge 在語言學及語言上都擁有堅實的基礎,也正是這樣優秀的專業能力使我們獨樹一格,能支援機器學習不可或缺的自然語言處理。 

策略 #2:建立倫理架構

要訓練 AI 產出符合倫理規範的輸出,就必須要建立倫理架構。正如為翻譯製作風格指南或翻譯詞彙表一樣,公司企業應該研擬一系列規則與指引,將所有內容都應遵循的要求納入其中。不妨參考業界標準來研擬架構,確保遵循相關法規並取得更好的結果。這些架構可能會需要配合多語言或不同文化的作業而進一步擴增或修改,加入新的語言以及社會規範或禁忌。此外,公司企業也應針對 AI 模型的持續倫理部署,建立相關章程和結構。 

策略 #3:倫理與偏見預訓練

在預訓練以及細微調整等階段中,公司企業應該優先採用消除偏見的技巧。運用前述的倫理架構,應該能夠教導 LLM 辨識與避免製作和使用有偏見或冒犯他人的內容。在預訓練期間測試 LLM 時,一定要根據對倫理和偏見的基本理解,使用資料驗證來更新資料集。建立倫理架構對這個步驟也很有助益。

在訓練期間,可以考慮建立機制,呈現 AI 模型在辨識和拒絕冒犯他人內容時的決策過程,日後如有問題,這樣的透明度會有助於釐清錯誤。

一個由六角形組成的球體,四周則有繁星點點

策略 #4:持續監控輸出

完成 AI 訓練後,公司必須依然持續審閱輸出。如果是與關鍵任務相關的內容,可能得考慮由審閱人員處理,這種做法尤其適合專為不同語言或來自其他文化的客戶而設計的內容。公司也可以安排審閱人員定期檢查與稽核這些素材,確保其品質符合要求,同時也遵循倫理架構的規範。您也可以考慮建立回報機制,讓客戶可以回報冒犯內容,並將他們的意見反應納入持續進行的細微調整作業中。

策略 #5:視需要進行再訓練

基於兩個原因,公司應該在其計畫中加入再訓練的相關規定。首先,AI 模型剛開始可能尚未充分「學習」到如何正確地套用倫理架構,因而可能會錯誤地創作出冒犯他人的內容,又或者是倫理架構本身並不完備而有所疏漏。必須持續進行再訓練的第二個原因,則是文化規範本身也會不斷改變,在今天不會冒犯到他人的內容,明天卻可能成為眾矢之的;在為多種語言或來自其他文化的客戶開發內容時,更容易發生這種情況,因為涉及的文化和語言越多,倫理架構所需涵蓋的細微差異也就更多。  

與我們聯絡

歡迎與 Lionbridge 專家合力展開 AI 訓練。我們已協助許多客戶充分發揮他們 LLM 的效益,亦非常嚴肅看待負責任的 AI 使用以及 AI 信任,更建立了自己的 TRUST 架構,因此您可放心將 LLM 事務託付給我們,我們會竭力協助貴公司達成目標並獲致高投資報酬率 (ROI)。歡迎與我們聯絡

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

作者和/或撰稿人
Samantha Keefe 和 AI 業務副總裁 Susan Morgan

與我們洽談

請輸入公司電子郵件