ウェビナー
臨床試験における包括性の向上: COA の作成と翻訳
ライオンブリッジの TRUST フレームワーク
AI 活用のための確かな基盤の構築
生成 AI
- AI 翻訳サービス
- Content Remix
AI トレーニング
- Aurora AI Studio™
機械翻訳
- MT トラッカー
Smart Onboarding
翻訳サービス モデル
コンテンツ サービス
- テクニカル ライティング
- トレーニング/eラーニング
- 財務報告書
- デジタル マーケティング
- SEO/コンテンツ最適化
翻訳サービス
- 動画ローカリゼーション
- ソフトウェア ローカリゼーション
- Web サイト ローカリゼーション
- 規制対象企業向け翻訳
- 通訳
- 迅速な通訳サービス
- ライブ イベント
- 言語品質サービス
テスティング サービス
- 機能 QA/テスト
- 互換性テスト
- 相互運用性テスト
- パフォーマンス テスト
- アクセシビリティ テスト
- UX/CX テスティング
インサイト
- ブログ記事
- ケース スタディ
- ホワイトペーパー
- ソリューション概要
- インフォグラフィック
- eBook
- 動画
ウェビナー
ライオンブリッジのナレッジ ハブ
- 良好な患者アウトカム
- 最新の臨床試験ソリューション
- 患者エンゲージメント
言語を選択:
多くの企業が独自の大規模言語モデル (LLM) を使い始めるにつれ、「責任ある AI」は重要な関心事となっています。「責任ある AI」の重要な要素の一つは、AI トレーニングとデータ検証を利用して、憎悪や不寛容さ、偏見などを含む AI コンテンツの生成を防止することです。そのようなコンテンツは有害であり、全般的な社会問題に発展するおそれがあります。そうした問題の例としては以下のようなものがありますが、これらはあくまで一部にすぎません。
偏見を含むコンテンツや不寛容なコンテンツは、ビジネスにも深刻な影響を及ぼします。本稿では、「責任ある AI」の使用を確実にするうえで、企業が AI トレーニングを活用し、当社が推奨する対策を実施すべき理由についてご説明します。
企業の LLM が責任ある AI として行動せず、不寛容で憎悪や偏見を含むコンテンツが生成された場合、上記のような社会的問題が引き起こされるだけではなく、その企業も深刻な影響を受ける可能性があります。ネガティブな影響は、以下のようなあらゆる公開コンテンツによって生じる可能性があります。
企業の LLM によって不快感を与える多言語コンテンツが生成される可能性は、そのプロセスに人間の専門家が関与していない場合に高くなります。場合によっては、AI による翻訳やローカリゼーションを人間の専門家が確認し、最終的に仕上げることが必要になります。企業が直面する可能性のある影響には、次のようなものがあります。
責任ある AI を軽視した場合に生じ得る影響
こうした影響は単独で生じる場合もあれば、複数が組み合わさって同時に生じる場合もあります。適切な措置を講じてこのような事態を回避することが重要です。以下の推奨事項をご確認ください。
AI の出力が意図せず偏見や人種差別的、性差別的な表現を含むものになったり、または単に不快感を与えたり文化的タブーに触れたりすることがないように、以下の方策のすべて、あるいは少なくとも一部を実践することを検討してください。最適な出力結果を得るには、AI のトレーニングとモニタリングのプロセス全体を通じて、さまざまな人々と協力することが重要です。そうすることでより幅広く、より確かな知識の基盤を得ることができます。また AI、社会文化的規範、業界、言語学についての専門知識を備えた (ライオンブリッジのような) AI トレーニングの専門家と協力することもご検討ください。そして最後に、一部の企業では AI 開発者やユーザー向けのポリシーを設定しており、AI システムが不適切に使用された場合の結果などを規定しています。こうしたポリシーは、AI による有害・不快なコンテンツの生成を防ぐうえで全員が協力することを推奨するものとなっています。
AI トレーニングを実施する際に、偏見、人種差別、性差別などを含まないコンテンツを作成するよう LLM を教育するには、適切なデータ収集が極めて重要になります。企業はここで、2 方面のアプローチを取る必要があります。第一に、その視点に問題が含まれる可能性がある情報源からのデータは除外しましょう。第二に、LLM のトレーニングには、多様な意見や視点が反映されたデータを使用しましょう。コンテンツが多言語であったり、さまざまな地域や文化圏に関するものであったりする場合は、現地の専門家や言語学の専門家に協力を求めるとよいでしょう。ライオンブリッジでは長年にわたって言語と言語学に関する専門知識を蓄積しており、それを活用することで、マシン ラーニングに必要な自然言語処理のサポートにおいて業界内でも独特のポジションを確立しています。
AI から倫理的な出力を得るためのトレーニングを実施するには、まず倫理的なフレームワークを確立することが不可欠です。スタイルガイドや翻訳用語集を作成するのと同じように、すべてのコンテンツについて遵守すべき一連のルールやガイドラインを策定する必要があります。業界の各標準を利用してこのフレームワークを確立し、規制に準拠したより良い出力を得られるようにしましょう。多言語のコンテンツや文化的なコンテンツについては、新しい言語や社会的規範、タブーに対応させるために、こうしたフレームワークを拡張・調整することが必要になる場合があります。また AI モデルの倫理的な展開を維持できるよう、企業は独自のプロトコルや体制を整える必要があります。
事前トレーニングと微調整のそれぞれの段階では、偏見を緩和するための手法に重点を置きましょう。LLM が偏見を含むコンテンツや不快感を与えるコンテンツを識別し、そのようなコンテンツの作成や使用を避ける能力を獲得できるよう、上述の倫理的なフレームワークを使用して LLM を教育しなければなりません。事前トレーニング中に LLM をテストする場合は、データ検証を行い、倫理と偏見に関する基本的な理解に基づいてデータ セットを更新する必要があります。このステップでも、倫理的なフレームワークが役立ちます。
トレーニングの際には、AI モデルが不快なコンテンツを識別して拒否する場合の、その意思決定プロセスを明示するメカニズムの構築を検討してください。この透明性は、後に問題が発生した場合に大いに役立つことになります。
企業は、AI トレーニングの実施後もその出力の見直しを継続して行う必要があります。重要性の高いコンテンツについては、人間の担当者によるレビューを加えることを検討するとよいでしょう。これは特に、さまざまな言語を話す顧客や、別の文化圏に属する顧客向けにデザインされたコンテンツに対して有効な手法です。さらに、人間のレビュー担当者による定期的な資料の監査を実施して、品質を管理し、倫理的なフレームワークへの準拠を確認することも効果的です。また、顧客が不快なコンテンツを報告できるようにして、そのフィードバックを継続的な改善に役立てることも検討してください。
企業がプロトコルに再トレーニングを組み込むべき理由はいくつかあります。第一に、AI モデルは初期段階において、倫理的なフレームワークを正しく適用する方法を十分に「学習」していない可能性があるためです。そのために不快なコンテンツが誤って生成されたり、そもそも倫理的なフレームワークが実際には確立されていなかったりする場合があります。再トレーニングを継続的に行う第二の理由は、人々の文化的基準が絶えず変化しているためです。あるコンテンツが今日は不快でなくても、明日は不快なものになるかもしれません。特に、複数の言語を話す顧客や別の文化圏に属する顧客向けに開発されたコンテンツでは、そうしたことが起こり得ます。文化や言語の数が増えるほど、倫理的なフレームワークにはより多くのニュアンスが求められることになります。
AI トレーニングについては、ぜひライオンブリッジまでご相談ください。当社は、長年にわたり、LLM を最大限に活用できるよう多くのお客様をご支援してきました。当社では、独自の TRUST フレームワークを通じて責任ある AI の使用と AI トラストの問題に取り組んでいます。お客様の目標達成と優れた ROI の実現に役立つ LLM の構築をお手伝いする当社のサービスをぜひご検討ください。皆様からのお問い合わせをお待ちしております。
ライオンブリッジでは、お客様のニーズをより深く理解し、課題を解決して海外市場へのリーチ拡大をお手伝いするうえで、当社の革新的な技術がどのように役立つかを詳しくお伝えしたいと考えています。これらの技術の活用についてご興味があれば、ぜひ当社までお問い合わせください。