語言:
語言:
內容服務
- 技術文件編寫
- 訓練與線上學習
- 財務報告
- 數位行銷
- SEO 與內容最佳化
翻譯服務
- 影音內容本地化
- 軟體本地化
- 網站本地化
- 受監管公司適用的翻譯服務
- 口譯
- 現場活動
測試服務
- 功能品管與測試
- 相容性測試
- 互操作性測試
- 效能測試
- 輔助使用性測試
- 使用者體驗 / 客戶體驗測試
解決方案
- 翻譯服務模式
- 機器翻譯
- Smart Onboarding™
- Aurora AI Studio™
我們的知識中心
- 理想的病患治療結果
- 本地化的未來
- 將創新力轉為免疫力
- COVID-19 資源中心
- 產業動盪系列
- 病人參與
- Lionbridge 深入見解
選擇語言:
擁抱生成式 AI 對獲致成功非常重要,尤其是當您的競爭對手早已著手在工作流程、翻譯或內容創作和最佳化等方面納入這項技術。使用生成式 AI 的其中一個關鍵要素,就是自我修正。因為很可惜的是,大型語言模型 (LLM) 有時會因為一些因素而交出錯誤的輸出內容,這是由於訓練 LLM 所使用的資料中,可能含有不妥或錯誤的資訊。此外,AI 工具有時也會產生「幻覺」,也就是捏造資訊。為了解決 AI 輸出中的這些問題,在初始的提示組中加入「自我修正」措施,或許是個可行的辦法 (有些專家也稱之為「自我批判」或是「自我精進」)。有多項研究針對不同的方法進行測試,這些方法會要求 LLM 審閱自己的輸出,並在最後輸出前調整精進它們的回答。歡迎閱讀我們的部落格文章,了解人們目前為了在 AI 解決方案中實行自我修正 (或要求他們的 AI 解決方案供應商這麼做) 所採用的一些技巧。這篇部落格文章也會探討 AI 自我修正的侷限。
「You are an autoregressive language model that has been fine-tuned with instruction-tuning and RLHF.You carefully provide accurate, factual, thoughtful, nuanced answers, and are brilliant at reasoning.If you think there might not be a correct answer, you say so.」(你是個經過指令調整及 RLHF 微調過的自我迴歸語言模型。你會審慎地提供正確、符合事實、深思熟慮且細膩的回答,並且非常善於推理。如果你認為沒有正確的答案,請直接這麼說。)
2.把 AI 工具變成為專家:避免錯誤資訊的其中一個方法,就是將您的 AI 工具變成比較不會犯錯的專家。許多使用者和 AI 服務供應商,包括一組 GitHub 開發人員,都在致力建立要求 AI 工具如專家般行事的提示。值得注意的是,其中表現最好的專家角色,是那些非常詳盡說明如何遵循最佳實務做法的角色 (但這些最佳實務必須廣受認可)。如果指令太過籠統,AI 工具可能會開始出現幻覺,杜撰內容。例如,光是說「你是個優秀的職涯輔導人員」這樣並不夠,應該在提示中加入職涯輔導人員一般會遵循的最佳實務做法。另一種最佳實務做法,就是以您已知答案的任務來測試一系列的提示,這麼做會有助您判斷要針對哪些地方來最佳化專家角色提示。視任務的類型而定,有時還可以開發多個迭代的專家角色提示。GitHub 開發人員便製作了一份清單,裡面囊括了他們用來將 AI 轉變為專業助理的 15 個提示系列。雖然還有其他類似的清單存在,但他們的清單顯然特別完備。
1. 職涯輔導人員
2. 特定職位的面試官
3. 英語發音小助手
4. 廣告人員
5. 社群媒體經理
6. 以學生為對象的 AI 寫作教師
7. 會計師
8. 網頁設計顧問
9. UX/UI 開發人員
10. IT 架構師
11. 網路資安專家
12. 機器學習工程師
13. IT 專家
14. Excel 公式生成器
15. 私人廚師
3.加入「前處理」或「後處理」提示:您可以加入提示來修改 AI 輸出的風格。例如,您可能希望風格較為正式或較不正式,或是以高學歷或高中教育程度的人為目標對象。如果提示是在輸出生成之後才加入,就稱為「後處理提示」。根據 Google DeepMind 近日的一項研究專案,同時提供一樣優異的前處理與後處理提示,往往能產出最佳的結果。
4.利用提示處理偏見問題:數以百萬計的人在網際網路上傾洩仇恨內容,因此如果用以訓練 LLM 的資料並不恰當時,它們的輸出就可能會反映出這些偏見。Anthropic AI 實驗室近日的一項研究顯示,可能可以利用「從人類回饋強化學習」(Reinforcement Learning from Human Feedback,RLHF) 來訓練 LLM,進而產出不含 (或較少) 種族歧視、年齡歧視、厭女等偏見的輸出。您可以在 AI 的憲法中加入說明,要求它將您團隊所決定的一般倫理原則納入考量。這個流程的其中一個環節,就是在提示中加入一行指令,要求 LLM 不要依賴那些有害的刻板印象或人生觀。在一些案例中,AI 工具已經開始在輸出中展現「積極性差別待遇」,表現甚至超出預期。
AI 自我修正措施或許效果卓著,但研究顯示它也有其侷限。前述的同一項 Google DeepMind 研究就發現,使用自我修正措施有時反而讓 LLM 表現的更差。而那些並未損及表現的案例中,自我修正對每一個 AI 提示系列的效果也不一致,沒有使用外部來源 (例如計算機、程式碼執行器、知識庫等) 的時候這種差異更為明顯。想要取得最佳結果,自我修正措施必須要能取用內含基本事實的基準化資料集。有了這些參考資料,AI 工具就能知道什麼時候該停止它的推理流程,進而避免過度修正其輸出。當然,研究人員也指出有些任務因為太過複雜,所以無法提供 AI 工具這類參考資料。
同一項研究中也發現,使用多個代理的 LLM 應用程式時,也會出現另一個 AI 自我修正的侷限。在這種情況下,LLM 會被要求以不同的「代理」,或者又稱為參與者,來執行多個任務。
LLM 先以一個代理來生成程式碼,接者再以另一個代理的身分來檢查這個程式碼。
要 LLM 進行辯論,正反方分別由一個代理擔任。
這麼做之所以會發生問題,是因為多個代理會使用多數決投票的方式,來決定哪一個回答是正確的,這會產生類似同溫層效應或「自我一致性」,而不是去追求真正的正確性。
AI 自我修正的侷限,凸顯出有人類參與其中的人機迴圈的重要性。AI 工具雖然可以提高翻譯的效率,但在某些時候往往需要人類介入。例如,或許是需要人類來研擬最合適的一系列提示、檢查最初的樣本,或是最後的輸出審閱工作等。自我修正措施可能有助整個流程更加順暢,但還是無法取代人機迴圈。
也因此,與例如 Lionbridge 的 AI 諮詢專家合作就顯得非常重要,因為他們可以協助您解決 AI 信任鴻溝的問題。這些專家應該要能:
盡可能降低產生不可信賴或低品質內容/輸出的風險
確保資料安全,避免遭受網路攻擊或任何威脅
發揮創意,並協助開發吸引人又具原創性的新內容或輸出
檢查正確性並加以改正,尤其是那些需要精深教育或專業能力的複雜資料
絕對不會試圖向您販售不必要的技術、解決方案或訂閱方案
與您分享整個流程,同時從頭到尾都歡迎您提供意見,並配合您的需求加以自訂
想了解如何運用 AI 來自動化內容創作、網站內容最佳化或其他語言服務嗎?Lionbridge 由眾多 AI 專家組成的專屬團隊隨時竭誠為您服務。歡迎與我們聯絡。