SPRACHE:
SPRACHE:
Lionbridge Knowledge Hubs
- Positive Patientenergebnisse
- Die Zukunft der Lokalisierung
Content-Services
- Technische Redaktion
- Schulungen
- Finanzberichte
- Digitales Marketing
- Content für SEO
Übersetzung und Lokalisierung
- Videolokalisierung
- Software-Lokalisierung
- Website-Lokalisierung
- Übersetzung für regulierte Branchen
- Dolmetschen
- Live Events
Testdienstleistungen
- Testservice
- Kompatibilitätsprüfungen
- Interoperabilitätsprüfungen
- Performance-Tests
- Zugänglichkeits-Tests
- Überprüfen des Kundenerlebnisses
Lösungen
- Übersetzungsservices
- Maschinelle Übersetzung
- Smart Onboarding™
- Aurora AI Studio™
Unsere Knowledge Hubs
- Positive Patientenergebnisse
- Die Zukunft der Lokalisierung
- Mit Innovation zur Immunität
- Covid-19-Sprachressourcen
- Disruption Series
- Patienteneinbindung
- Lionbridge Insights
- Pharma-Übersetzungen
- Klinisch
- Regulierung
- Nach der Zulassung
- Für Unternehmen
- Medizinprodukte-Übersetzungen
- Validierung/Klinische Studien
- Regulierung
- Nach der Autorisierung
- Für Unternehmen
Bank- und Finanzwesen
Einzelhandel
Luxusgüter
E-Commerce
Lionbridge Games
Automobilbranche
Konsumgüter
Technologie
Maschinenbau und Fertigung
Rechtsdienstleistungen
Tourismus und Gastgewerbe
SPRACHE AUSWÄHLEN:
Künstliche Intelligenz gibt es bereits seit dem 19. Jahrhundert. Die neueste Entwicklungsstufe – generative KI und große Sprachmodelle (Large Language Models, LLMs) – hat die KI-Ausgaben jedoch dramatisch verändert. Zum ersten Mal können Maschinen Entscheidungen wie Menschen treffen. Anstatt wie bisher vorhersehbare Ergebnisse zu liefern, sind die Ausgaben der Technologie nicht mehr vorherbestimmt. Das begründet eine neue Ära des Vertrauens.
„Wir fordern die Maschine auf, eine Entscheidung zu treffen. Letzteres geschieht in einer Art Blackbox. Was logisch folgt, ist die Frage: Dürfen wir dieser Entscheidung vertrauen?“
Vincent Henderson, KI-Experte bei Lionbridge
In unserem Webinar „Vertrauen in die KI“ leitete Moderator Will Rowlands-Rees von Lionbridge eine lebhafte Diskussion zu Fragen im Zusammenhang mit dem Vertrauen in KI-Lokalisierungen. Teilnehmer waren Scott Schwalbach von Amazon Web Services (AWS), Jane Faraola von Cisco und Vincent Henderson von Lionbridge.
Wenn Sie das Webinar verpasst haben, können Sie sich die Aufzeichnung jederzeit ansehen. Das Webinar war das fünfte in einer Reihe über generative KI und Sprachservices. Die Aufzeichnungen der anderen Webinare finden Sie auf der Webinarseite von Lionbridge.
Wenn Sie wenig Zeit haben, können Sie auch unsere Zusammenfassung der Diskussion lesen.
Die Frage nach dem Vertrauen in die KI ist direkte Folge der wachsenden Fähigkeiten von KI, werthaltige Ausgaben zu produzieren und andere Services zu erbringen. Dabei sind verschiedene Aspekte zu berücksichtigen: Wer nutzt KI? Wie wird KI eingesetzt? Was macht KI? Wie können diese Informationen den Stakeholdern Ihres Unternehmens vermittelt werden? Unternehmen können sich dem Thema „Vertrauen in die KI“ ganzheitlich nähern, indem sie sich folgende Fragen stellen:
Partner: Welche Anbieter wählen Sie als Partner? Werden sie verantwortungsvoll mit KI umgehen?
Prozess: Welche Prozesse werden im Rahmen der Lokalisierung umgesetzt? Sind die Prozesse zuverlässig und zielorientiert?
Systeme: Welche Technologien werden zur Unterstützung der Lokalisierung eingesetzt? Ist die Technologie sicher? Oder greift sie auf Ihre Daten zurück, um sich selbst zu trainieren?
Management: Wie können Sie interne Stakeholder davon überzeugen, dass ihr Content ordnungsgemäß verarbeitet und verwaltet wird, ohne eine übertriebene Erwartungshaltung zu schaffen?
Die Diskussionsteilnehmer waren sich einig, dass an der KI kein Weg vorbeiführt. KI hat sich dramatisch verändert. Schneller Wandel und Kostenersparnisse mit der neusten KI-Generation lassen sich nur auf Basis eingehender Befassung mit der Technologie erzielen. Mit dieser Technologie können Unternehmen mehr Menschen in mehr Sprachen und in individualisierter Form erreichen, um schließlich den Umsatz zu steigern. Natürlich ist mit der erforderlichen Vorsicht vorzugehen. Wo also anfangen?
Für Jane Faraola von Cisco beginnt alles mit einer ordentlichen Portion Neugier. „Die Einsatzmöglichkeiten sind grenzenlos. Ich denke, dass die menschliche Kreativität die Einsatzmöglichkeiten für KI voranbringen wird.“
Scott Schwalbach von AWS rät Unternehmen, Lösungen auf Basis generativer KI besonnen einzusetzen. „[Zunächst] sollte das Ziel definiert werden. Anschließend können Sie – rückwärts – einen Prozess entwickeln, der schließlich zu diesem Ziel führt“, sagte er
Die Diskussionmsteilnehmer betonten aber zugleich, dass Menschen KI-Prozesse mit ihrer Arbeit in die entsprechenden Systeme integrieren müssen.
Mit unserem TRUST-Framework haben wir eine mögliche Annäherung an das Thema entwickelt. Jeder Buchstabe des Wortes TRUST (für Vertrauen) repräsentiert einen von fünf wichtigen Aspekten:
Insgesamt bilden diese Faktoren die solide Basis für Vertrauen in die KI im Rahmen der Lokalisierung.
Transparenz bezeichnet das Wissen um die Art und Weise der Nutzung von KI und LLM-Modellen bei der Lokalisierung. Diese Kenntnis kann interne Stakeholder davon überzeugen, dass ihr Content ordnungsgemäß verarbeitet und verwaltet wird. Sie müssen sich die Frage stellen, ob Ihr Sprachdienstleiter seinen Einsatz von KI-Tools transparent offenlegt.
Wenn Sie schon zu Beginn des Prozesses die erforderlichen Eingriffe vornehmen, wird der Prozess zuverlässige Ausgaben liefern. Sie müssen festlegen, was die Maschine tun soll, geeignete Prompts entwickeln und Pilotprojekte abwickeln. Wiederholen Sie die Schritte und prüfen Sie die Ergebnisse, bis diese Ihren Anforderungen genügen, bevor Sie mit dem nächsten Schritt fortfahren. Veranlassen Sie mit GPT-4 eine kontinuierliche Bewertung von Stichproben der ausgegebenen Segmente, um das Vertrauen zu vertiefen. Unsere Tests haben gezeigt, dass die GPT-4 genauere Bewertungen als eine menschliche Evaluierung liefert.
Erfahren Sie im Video, wie Lionbridge Cisco bei der Durchführung eines Pilotprojekts für Content unterstützt hat, sodass auf Basis der Ergebnisse strategische Entscheidungen getroffen werden konnten.
Sie müssen für den Einsatz generativer KI geeignete Projekte wählen. Diese Projekte müssen für das Unternehmen nützlich sein und es voranbringen, damit Sie von den Zeit- und Kostenersparnissen der Technologie profitieren können.
Schützen Sie Ihr geistiges Eigentum, indem Sie verhindern, dass LLM Content „absorbieren“ und für das eigene Training oder andere Zwecke nutzen, die für Sie nicht akzeptabel sind. Achten Sie auch auf die Region, in der sich das Rechenzentrum mit Ihrem LLM befindet, und die daraus resultierenden Vorgaben und Voreingenommenheiten. Das gilt insbesondere dann, wenn zur Einhaltung gesetzlicher oder regulatorischer Vorschriften oder aufgrund staatlicher Anordnungen bestimmte Modelle verwendet werden müssen.
Generative KI und LLM können den Lokalisierungsprozess beschleunigen. Eine übereilte Implementierung kann aber dazu führen, dass für den Erfolg wichtige Faktoren nicht ausreichend berücksichtigt werden. Die Optimierung des LLM, das Erstellen einer RAG(Retrieval Augmented Generation)-Architektur und das Testen nehmen viel Zeit und Ressourcen in Anspruch und verlängern die Zeit, bis sich die Investitionen bezahlt machen.
AWS erstellt Schulungssoftware und nutzt dabei generative KI, um den Content weiter zu personalisieren und das Engagement der Teilnehmer zu stärken. AWS entwickelt E-Learning-Kurse beispielsweise nicht mehr in Englisch, sondern in der jeweiligen Muttersprache. Außerdem passt AWS den Ton der Kurse an die Zielgruppe an, indem die KI-Engine mit Prompts veranlasst wird, das Thema humorvoller oder technisches Material weniger trocken aufzubereiten.
„Kommt es auf jeden Punkt und jedes Komma an? Nicht wirklich“, sagt Scott Schwalbach. „Unser Maßstab lautet: Öffnet der potenzielle Tailnehmer den Kurs? Nimmt er am Kurs teil? Schließt er den Kurs ab? Und nimmt er auch am nächsten Kurs teil? Noch wichtiger aber ist, ob der Teilnehmer sich positiv über uns äußert und anderen Personen empfiehlt, an den Kursen teilzunehmen?“
Ein zusätzlicher Vorteil ist neben dem verstärkten Engagement die erhebliche Zeitersparnis. Durch die Integration generativer KI und die Verwendung neuer Prozesse will AWS die für die Entwicklung von Kursen erforderliche Zeit von neunzig Tagen auf zwei Wochen reduzieren.
Für das Erreichen der Ziele von KI-Initiativen ist die Wahl des richtigen Sprachpartners entscheidend.
Zunächst sollten Sie Ihr Ziel definieren. Nachdem Sie Ihr Ziel festgelegt haben, können Sie die Stärken und Schwächen potenzieller Partner im Ausschreibungsprozess mit folgenden Fragen ermitteln:
Welche Technologie setzt der potenzielle Partner ein? Verlangt der potenzielle Partner den Kauf komplexer Technologie, z. B. eines TMS (Translation Management System), das Sie gar nicht benötigen?
Schützt der Anbieter Ihr geistiges Eigentum oder werden Ihre Daten zur Schulung von Modellen verwendet?
Agiert der Sprachdienstleister datengesteuert und kann er objektive Daten als Basis für Entscheidungen über den Einsatz von KI bereitstellen? Kann der Sprachdienstleister anhand von Daten umtermauern, welche Sprachen heute und künftig wichtig sind?
Ist der Anbieter in Bezug auf seine Prozesse transparent und stellt er Ihren Bedarf in den Vordergrund?
Die beschriebenen Abwägungen erlauben eine detaillierte Bewertung anhand relevanter Kriterien. Ebenso wichtig sind Teammitglieder in Ihrem Unternehmen, die Qualifikationen tatsächlicher oder potenzieller Partner beurteilen können.
Unsere TRUST-Framework-Checkliste kann als Leitfaden auf dem Weg zum Vertrauen in die KI herangezogen werden.
Lionbridge ist branchenweit führend bei der Implementierung von KI und betreut bereits in dieser frühen Entwicklungsphase der neuen Technologie fast 500 Kunden mit individuellen Lösungen auf Basis generativer KI. Viele weitere Projekte befinden sich in Arbeit. Sind Sie bereit, Ihre KI-Reise mit einem vertrauenswürdigen Partner anzutreten? Kontaktieren Sie uns.