Webinar
Mehr Inklusion bei klinische Studien – COA-Entwicklung und -Übersetzung
Fallstudie
Neue Lösungen zur KI-Contenterstellung für einen Sport- und Bekleidungsgiganten
Lionbridge Knowledge Hubs
Lionbridge TRUST-Framework
Mehr Vertrauen in KI
Meet the Pride: Lex Parisi
Direktor für Gaming-Marketinglösungen bei Lionbridge Games
Generative KI
- KI-Übersetzungsservices
- Content Remix
KI-Training
- Aurora AI Studio™
Maschinelle Übersetzung
- MT Tracker
Smart Onboarding
Übersetzungsservicemodelle
Content-Services
- Technische Redaktion
- Schulungen
- Finanzberichte
- Digitales Marketing
- Content für SEO
Übersetzung und Lokalisierung
- Videolokalisierung
- Software-Lokalisierung
- Websitelokalisierung
- Übersetzung für regulierte Branchen
- Dolmetscherservices
- Live Events
- Sprachliche Qualitätssicherung
Testdienstleistungen<
- Testservice
- Kompatibilitätsprüfungen
- Interoperabilitätsprüfungen
- Performance-Tests
- Zugänglichkeits-Tests
- Überprüfen des Kundenerlebnisses
Life Sciences
- Pharmazeutik
- Klinisch
- Regulierung
- Nach der Zulassung
- Für Unternehmen
- Medizinprodukte
- Validierung und klinische Praxis
- Regulierung
- Nach der Zulassung
- Für Unternehmen
Bank- und Finanzwesen
Einzelhandel
Luxusgüter
E-Commerce
Lionbridge Games
Automobilbranche
Konsumgüter
Technologie
Industrielle Fertigung
Rechtsdienstleistungen
Tourismus & Gastgewerbe
Insights
- Blogbeiträge
- Fallstudien
- Whitepapers
- Lösungsübersichten
- Infografiken
- E-Books
- Videos
Webinare
Lionbridge Knowledge Hubs
- Positive Patientenergebnisse
- Moderne Lösungen für klinische Studien
- Patienteneinbindung
SPRACHE AUSWÄHLEN:
Da immer mehr Unternehmen eigene große Sprachmodelle (Large Language Models, LLM) einsetzen, erhält die verantwortungsvolle Nutzung der KI immer größere Bedeutung. Wichtige Aspekte der verantwortungsvollen KI-Nutzung sind KI-Training und Datenvalidierung, mit denen das Generieren von hasserfülltem, intolerantem und voreingenommenem KI-Content verhindert werden soll. Content dieser Art kann soziale Probleme verstärken und schädlich wirken. Beispiele:
Voreingenommener oder intoleranter Content kann zudem gravierende Auswirkungen auf das Geschäft haben. Im Weiteren erfahren Sie, wie Unternehmen mit gezieltem KI-Training eine verantwortungsvolle Nutzung der KI sicherstellen können. Zudem empfehlen wir die Umsetzung der beschriebenen Maßnahmen.
Gibt das LLM eines Unternehmens intoleranten, hasserfüllten oder voreingenommenen Content aus, so dass nicht von einer verantwortlichen Nutzung der KI gesprochen werden kann, besteht nicht nur die Gefahr der oben genannten sozialen Probleme. Auch das Geschäft kann leiden. Negative Auswirkungen kann jeder öffentlich zugängliche Content auslösen, z. B.:
Das LLM eines Unternehmens wird mit höherer Wahrscheinlichkeit anstößigen mehrsprachigen Content ausgeben, wenn kein menschlicher Experte in den Prozess eingebunden ist. In einigen Situationen ist die Einbindung eines menschlichen Experten zur Korrektur und Perfektionierung von KI-Übersetzungen oder -Lokalisierungen unverzichtbar. Mögliche Folgen für Unternehmen:
Mögliche Folgen einer nicht verantwortlichen KI-Nutzung
Unternehmen müssen mit einzelnen oder mehreren dieser Konsequenzen rechnen. Deshalb ist das Ergreifen der richtigen Schritte so wichtig. Lesen Sie im Weiteren unsere diesbezüglichen Empfehlungen.
Wir empfehlen, die folgenden Maßnahmen zumindest teilweise umzusetzen, damit keine voreingenommenen, rassistischen, frauenfeindlichen, beleidigenden oder kulturell inakzeptablen KI-Ausgaben generiert werden. Um optimale Ergebnisse zu erzielen, sollten Sie KI-Training und Überwachung von einer Gruppe diverser Personen durchführen lassen. Die Diversität der Personen stattet die Gruppe mit mehr und breiterem Wissen aus. Wenn Sie mit KI-Trainingsexperten – z. B. von Lionbridge – arbeiten, profitieren Sie von deren Expertise in Bezug auf KI, soziokulturelle Normen, Branchen und Linguistik. Zu guter Letzt definieren manche Unternehmen Richtlinien für KI-Entwickler und -Benutzer, um Konsequenzen für den Missbrauch eines KI-Systems festzulegen. Diese Konsequenzen sollen alle Beteiligten motivieren, darauf zu achten, dass eine KI nie schädlichen oder beleidigenden Content generiert.
Das KI-Training muss mit einer geeigneten Datenmenge erfolgen, damit das LLM Content erstellt, der frei von Vorurteilen, Rassismus, Frauenfeindlichkeit usw. ist. Unternehmen sollten zu diesem Zweck einen zweigleisigen Ansatz verfolgen. Zunächst müssen Daten aus Quellen mit problematischen Standpunkten gefiltert werden. In einem zweiten Schritt wird sichergestellt, dass die Trainingsdaten für ein LLM ein breites Spektrum an Meinungen und Perspektiven repräsentieren. Wenn Content mehrsprachig ist, von verschiedenen Orten oder aus unterschiedlichen Kulturen stammt, sollten lokale oder linguistische Experten mit diesen Aufgaben betraut werden. Lionbridge kann in Sachen Linguistik und Sprache auf ein solides Fundament zurückgreifen. Dank dieser Expertise sind wir ideal positioniert, um den für das maschinelle Lernen so wichtigen Natural Language Process zu unterstützen.
Wenn eine KI auf ethische Ausgaben trainiert werden soll, muss der ethische Rahmen definiert sein. Ähnlich wie bei der Erstellung eines Styleguides oder eines Übersetzungsglossars sollte ein Unternehmen eine Reihe von Regeln und Richtlinien entwickeln, denen sämtlicher Content folgen soll. Legen Sie dem Rahmen Branchenstandards zugrunde, um für Compliance und bessere Ergebnisse zu sorgen. Für Arbeiten, die sich auf mehrere Sprachen oder Kulturen beziehen, müssen die Rahmenbedingungen möglicherweise erweitert und variiert werden, um weitere sprachliche und soziale Normen oder Tabus zu berücksichtigen. Unternehmen sollten außerdem Protokolle und Strukturen einrichten, damit die ethischen Aspekte bei Nutzung des KI-Modells kontinuierlich beachtet werden.
Im Rahmen der Vorbereitung und Optimierung des Trainings sollten Unternehmen ein Schwergewicht auf Verfahren zur Vermeidung von Bias legen. Das LLM ist unter Anwendung des ethischen Rahmens so zu trainieren, dass es Vorurteile enthaltenden oder anstößigen Content weder aufnimmt noch generiert. Beim Testen des LLM während der Trainingsvorbereitung müssen die Daten validiert werden, um Datenmengen auf Basis eines grundlegenden Verständnisses von Ethik und Bias zu aktualisieren. Auch für diesen Schritt ist der ethische Rahmen hilfreich.
Erwägen Sie, im Rahmen des Trainings Mechanismen bereitzustellen, die Entscheidungsprozesse des KI-Modells bei der Identifizierung und Ablehnung anstößigen Contents verdeutlichen. Diese Transparenz wird von Nutzen sein, wenn später Probleme auftreten.
Unternehmen müssen die Ausgaben auch nach dem Training der KI überprüfen. Für geschäftskritischen Content sollte ein menschlicher Korrektor in Betracht gezogen werden. Dies ist besonders für Content zu empfehlen, der Kunden mit unterschiedlichen Sprachen und aus unterschiedlichen Kulturen ansprechen soll. Korrektoren können auch eingesetzt werden, um den Content regelmäßig auf Qualität und Einhaltung des ethischen Rahmens zu prüfen. Denkbar sind zudem kundenseitige Funktionen zum Melden anstößigen Contents. Dieses Feedback kann dann für die kontinuierliche Optimierung genutzt werden.
Es gibt für Unternehmen verschiedene Gründe, das Nachtrainieren in die Protokolle aufzunehmen. So kann es vorkommen, dass ein KI-Modell die Anwendung des ethischen Rahmens nicht auf Anhieb richtig „erlernt“. Es erstellt dann ungewollterweise anstößigen Content. Möglicherweise ist auch die Definition des ethischen Rahmens nicht hinreichend. Ein zweiter Grund für kontinuierliches Nachtraining resultiert aus Veränderungen der kulturellen Normen. Content, der heute noch toleriert wird, kann morgen als anstößig befunden werden. Das ist insbesondere zu beachten, wenn der Content für Kunden mit mehreren Sprachen oder aus unterschiedlichen Kulturen entwickelt wurde. Je mehr Kulturen und Sprachen involviert sind, desto mehr Nuancen müssen im ethischen Rahmen definiert werden.
Setzen Sie für Ihr KI-Training auf die Experten von Lionbridge. Wir konnten bereits vielen Kunden helfen, größtmöglichen Nutzen aus ihrem LLM zu ziehen. Wir nehmen die verantwortungsvolle Nutzung von KI und das Vertrauen in KI sehr ernst und haben dafür unser TRUST-Framework entwickelt. Vertrauen Sie uns, damit das LLM Ihres Unternehmens zum Erreichen der Geschäftsziele beiträgt und die Wertschöpfung steigert. Kontaktieren Sie uns.
Wir freuen uns darauf, mehr über Ihre Situation zu erfahren und zu erläutern, wie Sie mit unseren innovativen Lösungen Grenzen überwinden und die globale Reichweite steigern können. Sind Sie bereit, die Möglichkeiten und Optionen kennenzulernen? Wir freuen uns darauf, Sie zu unterstützen.