ライオンブリッジ ゲーミング部門の詳細を見る

言語を選択:

オレンジ色のレンズを通してデータのパターンを確認する人
オレンジ色のレンズを通してデータのパターンを確認する人

AI トレーニングと責任ある AI

LLM による偏った有害な出力の生成を防ぐ

多くの企業が独自の大規模言語モデル (LLM) を使い始めるにつれ、「責任ある AI」は重要な関心事となっています。「責任ある AI」の重要な要素の一つは、AI トレーニングとデータ検証を利用して、憎悪や不寛容さ、偏見などを含む AI コンテンツの生成を防止することです。そのようなコンテンツは有害であり、全般的な社会問題に発展するおそれがあります。そうした問題の例としては以下のようなものがありますが、これらはあくまで一部にすぎません。

  • ヘイト スピーチの拡散
  • 特定のグループやコミュニティの疎外
  • 精神的苦痛の発生

偏見を含むコンテンツや不寛容なコンテンツは、ビジネスにも深刻な影響を及ぼします。本稿では、「責任ある AI」の使用を確実にするうえで、企業が AI トレーニングを活用し、当社が推奨する対策を実施すべき理由についてご説明します。

ビジネス コンテンツにはなぜ「責任ある AI」が不可欠なのか

企業の LLM が責任ある AI として行動せず、不寛容で憎悪や偏見を含むコンテンツが生成された場合、上記のような社会的問題が引き起こされるだけではなく、その企業も深刻な影響を受ける可能性があります。ネガティブな影響は、以下のようなあらゆる公開コンテンツによって生じる可能性があります。

  • 印刷物のマーケティング資料
  • 公式 Web サイトのチャットボット
  • ソーシャル メディアの投稿
  • 販促メール
  • Web サイトのコピー

企業の LLM によって不快感を与える多言語コンテンツが生成される可能性は、そのプロセスに人間の専門家が関与していない場合に高くなります。場合によっては、AI による翻訳やローカリゼーションを人間の専門家が確認し、最終的に仕上げることが必要になります。企業が直面する可能性のある影響には、次のようなものがあります。

責任ある AI を軽視した場合に生じ得る影響

  • 名誉毀損、差別、ハラスメントに関する訴訟を含む法的問題
  • 規制当局による罰則、罰金、制限など
  • 利害関係者や顧客などからの評判の低下
  • 顧客やビジネス上のパートナーシップの喪失
  • 収益の損失
  • 信頼回復のための新たな広報活動、AI トレーニングの強化や開発など、損害を軽減するための費用
  • 従業員の意欲、忠誠心、生産性の低下

こうした影響は単独で生じる場合もあれば、複数が組み合わさって同時に生じる場合もあります。適切な措置を講じてこのような事態を回避することが重要です。以下の推奨事項をご確認ください。 

責任ある AI の使用と有害コンテンツの生成防止のための 5 つの方策

AI の出力が意図せず偏見や人種差別的、性差別的な表現を含むものになったり、または単に不快感を与えたり文化的タブーに触れたりすることがないように、以下の方策のすべて、あるいは少なくとも一部を実践することを検討してください。最適な出力結果を得るには、AI のトレーニングとモニタリングのプロセス全体を通じて、さまざまな人々と協力することが重要です。そうすることでより幅広く、より確かな知識の基盤を得ることができます。また AI、社会文化的規範、業界、言語学についての専門知識を備えた (ライオンブリッジのような) AI トレーニングの専門家と協力することもご検討ください。そして最後に、一部の企業では AI 開発者やユーザー向けのポリシーを設定しており、AI システムが不適切に使用された場合の結果などを規定しています。こうしたポリシーは、AI による有害・不快なコンテンツの生成を防ぐうえで全員が協力することを推奨するものとなっています。

浮遊するデジタル データのリボン

方策 1: データ キュレーション

AI トレーニングを実施する際に、偏見、人種差別、性差別などを含まないコンテンツを作成するよう LLM を教育するには、適切なデータ収集が極めて重要になります。企業はここで、2 方面のアプローチを取る必要があります。第一に、その視点に問題が含まれる可能性がある情報源からのデータは除外しましょう。第二に、LLM のトレーニングには、多様な意見や視点が反映されたデータを使用しましょう。コンテンツが多言語であったり、さまざまな地域や文化圏に関するものであったりする場合は、現地の専門家や言語学の専門家に協力を求めるとよいでしょう。ライオンブリッジでは長年にわたって言語と言語学に関する専門知識を蓄積しており、それを活用することで、マシン ラーニングに必要な自然言語処理のサポートにおいて業界内でも独特のポジションを確立しています。 

方策 2: 倫理的なフレームワークの確立

AI から倫理的な出力を得るためのトレーニングを実施するには、まず倫理的なフレームワークを確立することが不可欠です。スタイルガイドや翻訳用語集を作成するのと同じように、すべてのコンテンツについて遵守すべき一連のルールやガイドラインを策定する必要があります。業界の各標準を利用してこのフレームワークを確立し、規制に準拠したより良い出力を得られるようにしましょう。多言語のコンテンツや文化的なコンテンツについては、新しい言語や社会的規範、タブーに対応させるために、こうしたフレームワークを拡張・調整することが必要になる場合があります。また AI モデルの倫理的な展開を維持できるよう、企業は独自のプロトコルや体制を整える必要があります。 

方策 3: 倫理と偏見に関する事前トレーニング

事前トレーニングと微調整のそれぞれの段階では、偏見を緩和するための手法に重点を置きましょう。LLM が偏見を含むコンテンツや不快感を与えるコンテンツを識別し、そのようなコンテンツの作成や使用を避ける能力を獲得できるよう、上述の倫理的なフレームワークを使用して LLM を教育しなければなりません。事前トレーニング中に LLM をテストする場合は、データ検証を行い、倫理と偏見に関する基本的な理解に基づいてデータ セットを更新する必要があります。このステップでも、倫理的なフレームワークが役立ちます。

トレーニングの際には、AI モデルが不快なコンテンツを識別して拒否する場合の、その意思決定プロセスを明示するメカニズムの構築を検討してください。この透明性は、後に問題が発生した場合に大いに役立つことになります。

六角形で構成された球体とそれを囲む星々

方策 4: 出力の継続的な監視

企業は、AI トレーニングの実施後もその出力の見直しを継続して行う必要があります。重要性の高いコンテンツについては、人間の担当者によるレビューを加えることを検討するとよいでしょう。これは特に、さまざまな言語を話す顧客や、別の文化圏に属する顧客向けにデザインされたコンテンツに対して有効な手法です。さらに、人間のレビュー担当者による定期的な資料の監査を実施して、品質を管理し、倫理的なフレームワークへの準拠を確認することも効果的です。また、顧客が不快なコンテンツを報告できるようにして、そのフィードバックを継続的な改善に役立てることも検討してください。

方策 5: 必要に応じた再トレーニングの実施

企業がプロトコルに再トレーニングを組み込むべき理由はいくつかあります。第一に、AI モデルは初期段階において、倫理的なフレームワークを正しく適用する方法を十分に「学習」していない可能性があるためです。そのために不快なコンテンツが誤って生成されたり、そもそも倫理的なフレームワークが実際には確立されていなかったりする場合があります。再トレーニングを継続的に行う第二の理由は、人々の文化的基準が絶えず変化しているためです。あるコンテンツが今日は不快でなくても、明日は不快なものになるかもしれません。特に、複数の言語を話す顧客や別の文化圏に属する顧客向けに開発されたコンテンツでは、そうしたことが起こり得ます。文化や言語の数が増えるほど、倫理的なフレームワークにはより多くのニュアンスが求められることになります。  

お問い合わせ

AI トレーニングについては、ぜひライオンブリッジまでご相談ください。当社は、長年にわたり、LLM を最大限に活用できるよう多くのお客様をご支援してきました。当社では、独自の TRUST フレームワークを通じて責任ある AI の使用と AI トラストの問題に取り組んでいます。お客様の目標達成と優れた ROI の実現に役立つ LLM の構築をお手伝いする当社のサービスをぜひご検討ください。皆様からのお問い合わせをお待ちしております。

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

執筆者、寄稿者
サマンサ キーフ、スーザン モーガン (AI セールス担当バイス プレジデント)

お問い合わせ

勤務先のメール アドレスを入力してください