Besök Lionbridge Games

VÄLJ SPRÅK:

en person studerar datamönster genom en orange lins
en person studerar datamönster genom en orange lins

AI-träning och ansvarsfull AI

Undvik fördomsfulla och skadliga resultat från din stora språkmodell

I takt med att allt fler företag börjar använda egna stora språkmodeller (LLM) blir frågan om ansvarsfull AI mer angelägen. Ett viktigt steg för att uppnå ansvarsfull AI är att validera indata och träna AI:n för att förhindra att den producerar hatiskt, intolerant eller fördomsfullt innehåll. Den här typen av innehåll kan vara skadligt och förvärra allmänna problem i samhället, inklusive (men inte begränsat till)

  • hets mot folkgrupp
  • marginalisering av vissa samhällsgrupper
  • känslomässig stress.

Fördomsfullt och intolerant innehåll får också allvarliga konsekvenser för företag. Läs vidare för att ta reda på varför företag bör använda AI-träning för att säkerställa ansvarsfull AI-användning och vidta våra rekommenderade åtgärder.

Varför är ansvarsfull AI extra viktigt för företagsinnehåll?

När ett företag använder en stor språkmodell som inte tillämpar ansvarsfull AI utan producerar intolerant, hätskt eller fördomsfullt innehåll, bidrar det inte bara till de samhällsproblem som nämns ovan. Företagets misstag kan också få andra konsekvenser. Om innehållet sprids till allmänheten kan det få negativa följder. Det gäller till exempel

  • tryckt marknadsföringsmaterial
  • chattbotar på företagets officiella webbplats
  • inlägg i sociala medier
  • e-postreklam
  • innehåll på företagets webbplats.

Om företag använder en stor språkmodell utan en mänsklig expert i processen ökar risken för att den producerar stötande innehåll på olika språk. I vissa fall krävs en mänsklig expert som kan granska och finslipa AI-baserad översättning och lokalisering. Företag riskerar att drabbas av följande konsekvenser:

Potentiella följder om företag inte använder ansvarsfull AI

  • Juridiska, bland annat stämningar för förtal, diskriminering eller trakasserier.
  • Brott mot regelverk som leder till böter, viten, restriktioner osv.
  • Skadat anseende bland intressenter, kunder m.fl.
  • Förlust av kunder och affärssamarbeten.
  • Förlorade intäkter.
  • Kostnader för att hantera skador, exempelvis ny marknadsföring för att återställa förtroende, mer träning och utveckling av AI-motorn osv.
  • Försämrad arbetsmoral, lojalitet och produktivitet bland medarbetare.

Företag kan drabbas av en eller flera av konsekvenserna. Det är mycket viktigt att vidta rätt åtgärder för att undvika de här följderna. Läs våra rekommendationer nedan. 

Fem knep för att säkerställa ansvarsfull AI-användning och undvika skadligt innehåll

Överväg att använda alla, eller åtminstone några, av knepen för att se till att ditt AI-innehåll inte oavsiktligt blir fördomsfullt, rasistiskt, sexistiskt eller helt enkelt stötande eller kulturellt olämpligt. För bästa möjliga resultat bör du låta ett mångfasetterat team ansvara för hela processen med att träna och övervaka AI-motorn. Tillsammans skapar de en bredare och djupare kunskapsgrund. Du kan även ta hjälp av experter på AI-träning, exempelvis Lionbridge, som sammanflätar expertis inom såväl AI som sociokulturella normer, olika branscher och lingvistik. Slutligen kan vissa företag införa policyer för AI-utvecklare och -användare. Policyerna definierar vad följderna blir om ett AI-system missbrukas. De motiverar alla att se till att en AI aldrig producerar skadligt eller stötande innehåll.

böljande band med digitaliserade data

Knep 1: Datainsamling

När AI-motorn ska tränas är det viktigt att samla in lämpliga data för att lära den stora språkmodellen att skapa innehåll utan fördomar, rasism, sexism osv. Företag bör använda en tvådelad metod här: Börja med att filtrera bort data från källor som kan innehålla olämpliga åsikter. Se därefter till att träningsdata till en stor språkmodell rymmer ett representativt urval av olika röster och perspektiv. Om innehållet är flerspråkigt eller hämtat från olika platser eller kulturer kan det vara bra att be lokala experter eller språkexperter hjälpa till med de här uppgifterna. Lionbridge besitter stor kompetens inom både lingvistik och språk. Expertisen gör oss särskilt lämpade att hjälpa till med den bearbetning av naturligt språk som krävs vid maskininlärning. 

Knep 2: Upprätta ett etiskt ramverk

När AI tränas i att producera etiska resultat är det viktigt att upprätta ett etiskt ramverk. Precis som när företag tar fram språkliga riktlinjer eller ordlistor bör de formulera en uppsättning etiska regler och riktlinjer som de vill att allt innehåll ska rätta sig efter. Utgå från branschstandarder när du upprättar ramverket för att säkerställa efterlevnad och bättre resultat. Ramverken kan sedan behöva utökas eller justeras för flerspråkiga eller kulturella projekt för att inkludera nya språk och sociala normer eller tabun. Företag bör också införa protokoll och strukturer för kontinuerlig etisk användning av AI-modellen. 

Knep 3: Förträning för att främja etik och motverka fördomar

Under förtränings- och finjusteringsstegen bör företag prioritera tekniker som motverkar fördomar. Med hjälp av det etiska ramverk som beskrivs ovan bör den stora språkmodellen tränas i att identifiera och undvika att producera och konsumera fördomsfullt eller stötande innehåll. När den stora språkmodellen testas under förträning är det viktigt att validera data och uppdatera datauppsättningar utifrån en grundläggande förståelse för etik och fördomar. Det etiska ramverket kommer till nytta även under det här steget.

Under träningen kan det vara bra att skapa mekanismer som synliggör AI-modellens beslutsprocess för att identifiera och avvisa stötande innehåll. Med sådan transparens blir det enklare om det sedan uppstår problem.

en jordglob av hexagoner omgiven av stjärnor

Knep 4: Övervaka resultaten kontinuerligt

När ett företag har tränat sin AI-motor behöver det också fortsätta granska resultaten från den. När det gäller målkritiskt innehåll kan det vara bra att använda en mänsklig granskare. Det är särskilt användbart om innehållet är avsett för kunder som talar olika språk och kommer från andra kulturer. Företag kan också låta en mänsklig granskare kontrollera materialet med jämna mellanrum för att säkerställa dess kvalitet och efterlevnad av det etiska ramverket. Det kan även vara en god idé att ge kunder möjlighet att anmäla stötande innehåll och använda feedbacken i företagets kontinuerliga finjusteringsarbete.

Knep 5: Träna om AI-motorn vid behov

Det finns två anledningar till att företag bör integrera förnyad träning i sina protokoll: För det första kanske AI-motorn inledningsvis har svårt att ”lära sig” exakt hur den ska tillämpa det etiska ramverket. Den kan oavsiktligt producera stötande innehåll eller så finns det brister i själva ramverket. En andra anledning att kontinuerligt träna om AI-motorn är att kulturella normer ständigt förändras. Innehåll som inte är stötande i dag kan vara det i morgon – framför allt om det har tagits fram för kunder som talar flera språk eller kommer från andra kulturer. Ju fler språk och kulturer som är inblandade, desto fler nyanser krävs i det etiska ramverket.  

Kontakta oss

Påbörja din AI-träning med Lionbridges experter. Vi har hjälpt många kunder att få ut mesta möjliga av sina stora språkmodeller. Vi tar ansvarsfull AI-användning och AI-förtroende på största allvar och har även infört vårt eget TRUST-ramverk. Vi kan se till att din stora språkmodell bidrar till att företaget snabbare når sina mål och ökad lönsamhet. Kontakta oss.

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

FÖRFATTARE OCH/ELLER MEDFÖRFATTARE
Samantha Keefe och Susan Morgan, VP of AI Sales

Kontakta oss

Ange företagets e-postadress.