Besuchen Sie Lionbridge Games

SPRACHE AUSWÄHLEN:

Person, die Datenmuster durch eine orangefarbene Linse betrachtet
Person, die Datenmuster durch eine orangefarbene Linse betrachtet

KI-Training und verantwortliche KI-Nutzung

Verhindern voreingenommener und verletzender LLM-Ausgaben

Da immer mehr Unternehmen eigene große Sprachmodelle (Large Language Models, LLM) einsetzen, erhält die verantwortungsvolle Nutzung der KI immer größere Bedeutung. Wichtige Aspekte der verantwortungsvollen KI-Nutzung sind KI-Training und Datenvalidierung, mit denen das Generieren von hasserfülltem, intolerantem und voreingenommenem KI-Content verhindert werden soll. Content dieser Art kann soziale Probleme verstärken und schädlich wirken. Beispiele:

  • Verbreitung von Hassrede
  • Marginalisierung von Gruppen oder Communitys
  • Verursachen emotionalen Leids

Voreingenommener oder intoleranter Content kann zudem gravierende Auswirkungen auf das Geschäft haben. Im Weiteren erfahren Sie, wie Unternehmen mit gezieltem KI-Training eine verantwortungsvolle Nutzung der KI sicherstellen können. Zudem empfehlen wir die Umsetzung der beschriebenen Maßnahmen.

Warum ist die verantwortungsvolle Nutzung von KI für Geschäftscontent so wichtig?

Gibt das LLM eines Unternehmens intoleranten, hasserfüllten oder voreingenommenen Content aus, so dass nicht von einer verantwortlichen Nutzung der KI gesprochen werden kann, besteht nicht nur die Gefahr der oben genannten sozialen Probleme. Auch das Geschäft kann leiden. Negative Auswirkungen kann jeder öffentlich zugängliche Content auslösen, z. B.:

  • Gedruckte Marketingmaterialien
  • Website-Chatbots
  • Beiträge in sozialen Medien
  • Vertriebs-E-Mails
  • Websitetexte

Das LLM eines Unternehmens wird mit höherer Wahrscheinlichkeit anstößigen mehrsprachigen Content ausgeben, wenn kein menschlicher Experte in den Prozess eingebunden ist. In einigen Situationen ist die Einbindung eines menschlichen Experten zur Korrektur und Perfektionierung von KI-Übersetzungen oder -Lokalisierungen unverzichtbar. Mögliche Folgen für Unternehmen:

Mögliche Folgen einer nicht verantwortlichen KI-Nutzung

  • Rechtliche Konsequenzen, z. B. Klagen wegen Verleumdung, Diskriminierung oder Belästigung
  • Strafen, Bußgelder, Einschränkungen usw.
  • Rufschädigung gegenüber Stakeholdern, Kunden usw.
  • Verlust von Kunden und Geschäftspartnern
  • Verlust von Einnahmen
  • Kosten für die Schadensbegrenzung, einschließlich neuer Werbung zur Wiederherstellung des Vertrauens, mehr KI-Training und -Entwicklung usw.
  • Schlechte Mitarbeitermoral, -bindung und -produktivität

Unternehmen müssen mit einzelnen oder mehreren dieser Konsequenzen rechnen. Deshalb ist das Ergreifen der richtigen Schritte so wichtig. Lesen Sie im Weiteren unsere diesbezüglichen Empfehlungen. 

Fünf Taktiken zur Sicherstellung verantwortlicher KI-Nutzung und zur Verhinderung schädlichen Contents

Wir empfehlen, die folgenden Maßnahmen zumindest teilweise umzusetzen, damit keine voreingenommenen, rassistischen, frauenfeindlichen, beleidigenden oder kulturell inakzeptablen KI-Ausgaben generiert werden. Um optimale Ergebnisse zu erzielen, sollten Sie KI-Training und Überwachung von einer Gruppe diverser Personen durchführen lassen. Die Diversität der Personen stattet die Gruppe mit mehr und breiterem Wissen aus. Wenn Sie mit KI-Trainingsexperten – z. B. von Lionbridge – arbeiten, profitieren Sie von deren Expertise in Bezug auf KI, soziokulturelle Normen, Branchen und Linguistik. Zu guter Letzt definieren manche Unternehmen Richtlinien für KI-Entwickler und -Benutzer, um Konsequenzen für den Missbrauch eines KI-Systems festzulegen. Diese Konsequenzen sollen alle Beteiligten motivieren, darauf zu achten, dass eine KI nie schädlichen oder beleidigenden Content generiert.

Schwebende Bänder aus digitalen Daten

Taktik 1: Datenkuratierung

Das KI-Training muss mit einer geeigneten Datenmenge erfolgen, damit das LLM Content erstellt, der frei von Vorurteilen, Rassismus, Frauenfeindlichkeit usw. ist. Unternehmen sollten zu diesem Zweck einen zweigleisigen Ansatz verfolgen. Zunächst müssen Daten aus Quellen mit problematischen Standpunkten gefiltert werden. In einem zweiten Schritt wird sichergestellt, dass die Trainingsdaten für ein LLM ein breites Spektrum an Meinungen und Perspektiven repräsentieren. Wenn Content mehrsprachig ist, von verschiedenen Orten oder aus unterschiedlichen Kulturen stammt, sollten lokale oder linguistische Experten mit diesen Aufgaben betraut werden. Lionbridge kann in Sachen Linguistik und Sprache auf ein solides Fundament zurückgreifen. Dank dieser Expertise sind wir ideal positioniert, um den für das maschinelle Lernen so wichtigen Natural Language Process zu unterstützen. 

Taktik 2: Ethischen Rahmen definieren

Wenn eine KI auf ethische Ausgaben trainiert werden soll, muss der ethische Rahmen definiert sein. Ähnlich wie bei der Erstellung eines Styleguides oder eines Übersetzungsglossars sollte ein Unternehmen eine Reihe von Regeln und Richtlinien entwickeln, denen sämtlicher Content folgen soll. Legen Sie dem Rahmen Branchenstandards zugrunde, um für Compliance und bessere Ergebnisse zu sorgen. Für Arbeiten, die sich auf mehrere Sprachen oder Kulturen beziehen, müssen die Rahmenbedingungen möglicherweise erweitert und variiert werden, um weitere sprachliche und soziale Normen oder Tabus zu berücksichtigen. Unternehmen sollten außerdem Protokolle und Strukturen einrichten, damit die ethischen Aspekte bei Nutzung des KI-Modells kontinuierlich beachtet werden. 

Taktik 3: Trainingsvorbereitung unter Berücksichtung von Ethik und Bias

Im Rahmen der Vorbereitung und Optimierung des Trainings sollten Unternehmen ein Schwergewicht auf Verfahren zur Vermeidung von Bias legen. Das LLM ist unter Anwendung des ethischen Rahmens so zu trainieren, dass es Vorurteile enthaltenden oder anstößigen Content weder aufnimmt noch generiert. Beim Testen des LLM während der Trainingsvorbereitung müssen die Daten validiert werden, um Datenmengen auf Basis eines grundlegenden Verständnisses von Ethik und Bias zu aktualisieren. Auch für diesen Schritt ist der ethische Rahmen hilfreich.

Erwägen Sie, im Rahmen des Trainings Mechanismen bereitzustellen, die Entscheidungsprozesse des KI-Modells bei der Identifizierung und Ablehnung anstößigen Contents verdeutlichen. Diese Transparenz wird von Nutzen sein, wenn später Probleme auftreten.

Ein aus Sechsecken bestehender Globus, umgeben von Sternen

Taktik 4: Kontinuierliche Überwachung der Ausgaben

Unternehmen müssen die Ausgaben auch nach dem Training der KI überprüfen. Für geschäftskritischen Content sollte ein menschlicher Korrektor in Betracht gezogen werden. Dies ist besonders für Content zu empfehlen, der Kunden mit unterschiedlichen Sprachen und aus unterschiedlichen Kulturen ansprechen soll. Korrektoren können auch eingesetzt werden, um den Content regelmäßig auf Qualität und Einhaltung des ethischen Rahmens zu prüfen. Denkbar sind zudem kundenseitige Funktionen zum Melden anstößigen Contents. Dieses Feedback kann dann für die kontinuierliche Optimierung genutzt werden.

Taktik 5: Bei Bedarf nachtrainieren

Es gibt für Unternehmen verschiedene Gründe, das Nachtrainieren in die Protokolle aufzunehmen. So kann es vorkommen, dass ein KI-Modell die Anwendung des ethischen Rahmens nicht auf Anhieb richtig „erlernt“. Es erstellt dann ungewollterweise anstößigen Content. Möglicherweise ist auch die Definition des ethischen Rahmens nicht hinreichend. Ein zweiter Grund für kontinuierliches Nachtraining resultiert aus Veränderungen der kulturellen Normen. Content, der heute noch toleriert wird, kann morgen als anstößig befunden werden. Das ist insbesondere zu beachten, wenn der Content für Kunden mit mehreren Sprachen oder aus unterschiedlichen Kulturen entwickelt wurde. Je mehr Kulturen und Sprachen involviert sind, desto mehr Nuancen müssen im ethischen Rahmen definiert werden.  

Sprechen Sie uns an

Setzen Sie für Ihr KI-Training auf die Experten von Lionbridge. Wir konnten bereits vielen Kunden helfen, größtmöglichen Nutzen aus ihrem LLM zu ziehen. Wir nehmen die verantwortungsvolle Nutzung von KI und das Vertrauen in KI sehr ernst und haben dafür unser TRUST-Framework entwickelt. Vertrauen Sie uns, damit das LLM Ihres Unternehmens zum Erreichen der Geschäftsziele beiträgt und die Wertschöpfung steigert. Kontaktieren Sie uns.

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

VERFASST VON/MITWIRKENDE
Samantha Keefe und Susan Morgan, VP of AI Sales

Kontakt

Bitte geben Sie eine geschäftliche E-Mail-Adresse an.