Visitate Lionbridge Games

SELEZIONATE LA LINGUA:

persona che rivede modelli di dati attraverso una lente arancione
persona che rivede modelli di dati attraverso una lente arancione

Addestramento e uso responsabile dell'intelligenza artificiale

Impedire output degli LLM discriminatori e dannosi

Man mano che cresce il numero di aziende che utilizzano Large Language Model (LLM) propri, l'intelligenza artificiale responsabile diventa una preoccupazione critica. Un elemento chiave dell'intelligenza artificiale responsabile è l'uso dell'addestramento dell'AI e della convalida dei dati per evitare la generazione di contenuti incitanti all'odio, intolleranti o discriminatori. Contenuti di questo tipo possono essere dannosi e contribuire alla diffusione di problemi sociali, tra cui:

  • Incitazione all'odio
  • Emarginazione di determinati gruppi o comunità
  • Stress emotivo

I contenuti discriminatori o intolleranti possono avere anche gravi conseguenze sul business. Continuate a leggere per capire perché le aziende devono utilizzare l'addestramento dell'intelligenza artificiale per garantire un uso responsabile di questa tecnologia e implementare le nostre azioni consigliate.

Perché l'intelligenza artificiale responsabile è cruciale per i contenuti aziendali?

Quando un LLM aziendale trascura il concetto di intelligenza artificiale responsabile e crea contenuti intolleranti, incitanti all'odio o discriminatori, non solo può generare i problemi sociali indicati in precedenza, ma potrebbe anche determinare alcune conseguenze per l'azienda. Potrebbero verificarsi ripercussioni negative con qualsiasi contenuto destinato al pubblico, tra cui:

  • Materiali di marketing stampati
  • Chatbot ufficiali dei siti web
  • Post di social media
  • E-mail per la vendita
  • Testi dei siti web

Un LLM aziendale ha maggiori probabilità di creare contenuti multilingue offensivi se manca l'intervento di un esperto umano nel processo. In alcuni casi, il lavoro di un esperto è essenziale per rivedere e perfezionare la traduzione o la localizzazione svolte dall'intelligenza artificiale. Ecco le potenziali conseguenze che un'azienda potrebbe trovarsi ad affrontare:

Potenziali conseguenze di un uso non responsabile dell'intelligenza artificiale

  • Conseguenze legali, incluse cause per diffamazione, discriminazione o molestie
  • Sanzioni regolamentari, multe, restrizioni e così via
  • Danni alla reputazione con stakeholder, clienti e così via
  • Perdita di clienti e partnership commerciali
  • Perdita di ricavi
  • Spese per la mitigazione dei danni, tra cui nuova pubblicità per ripristinare la fiducia, ulteriori attività di addestramento e sviluppo dell'intelligenza artificiale e così via
  • Peggioramento del morale, della fedeltà e della produttività dei dipendenti

Le aziende potrebbero trovarsi ad affrontare una o più di queste conseguenze. Adottare le giuste misure per evitare queste ripercussioni è fondamentale. Scoprite i nostri consigli di seguito. 

5 tattiche per usare l'intelligenza artificiale in modo responsabile ed evitare contenuti dannosi

Implementate tutte queste tattiche, o almeno alcune, per assicurarvi che l'output dell'intelligenza artificiale non sia involontariamente discriminatorio, razzista, misogino o semplicemente offensivo o inappropriato dal punto di vista culturale. Per ottenere risultati ottimali, collaborate con un gruppo diversificato di persone durante tutto il processo di addestramento e monitoraggio dell'intelligenza artificiale. La base di conoscenze sarà così più ampia e solida. Collaborate con esperti nell'addestramento dell'intelligenza artificiale, come quelli di Lionbridge, che offrono competenze in ambito di intelligenza artificiale, norme socioculturali, diversi settori e linguaggio. Infine, alcune aziende possono stabilire politiche per gli sviluppatori e gli utenti dell'intelligenza artificiale. Tali politiche definiscono le conseguenze per l'uso improprio di un sistema di intelligenza artificiale e motivano le persone a fare in modo che l'intelligenza artificiale non generi mai contenuti dannosi o offensivi.

nastri di dati digitalizzati che fluttuano

Tattica 1. Selezione attenta dei dati

Quando si addestra l'intelligenza artificiale, è fondamentale raccogliere i dati appropriati per insegnare a un LLM a creare contenuti privi di bias, razzismo, misoginia e così via. Le aziende devono adottare un duplice approccio. Innanzitutto, escludere i dati provenienti da fonti che potrebbero includere punti di vista problematici. In secondo luogo, assicurarsi che i dati usati per l'addestramento di un LLM rappresentino una vasta gamma di voci e punti di vista. Se il contenuto è multilingue o proviene da luoghi o culture diverse, può essere utile avvalersi di esperti locali o linguisti professionisti per lo svolgimento di queste attività. Lionbridge ha solide basi dal punto di vista della lingua e del linguaggio. Grazie alla nostra esperienza siamo un partner di riferimento per l'elaborazione del linguaggio naturale necessaria per l'apprendimento automatico. 

Tattica 2. Definizione di un framework etico

Quando si addestra l'intelligenza artificiale per ottenere un output etico, è essenziale definire un framework etico. Analogamente alla creazione di una guida di stile o di un glossario per la traduzione, un'azienda deve sviluppare una serie di regole e linee guida per i contenuti. Per sviluppare il framework e garantire conformità e risultati migliori, fate riferimento agli standard di settore. Tali framework possono dover essere ampliati e diversificati per tenere conto delle differenze linguistiche o culturali, includendo nuove norme linguistiche e sociali o tabù. Le aziende devono anche stabilire protocolli e strutture per un'implementazione etica su base continua del modello di intelligenza artificiale. 

Tattica 3. Addestramento preliminare per il rispetto delle norme etiche e la mitigazione dei bias

Durante le fasi di addestramento preliminare e ottimizzazione, le aziende devono dare priorità alle tecniche di mitigazione dei bias. Basandosi sul framework etico sopra menzionato, è necessario insegnare all'LLM a identificare i contenuti discriminatori o offensivi, nonché evitare di crearli o utilizzarli. Quando si testa l'LLM durante la fase di addestramento preliminare, è essenziale utilizzare la convalida dei dati per aggiornare i set di dati basandosi sulle conoscenze di base in materia di etica e bias. Il framework etico è utile anche per questo passaggio.

Durante l'addestramento, valutate l'opportunità di creare meccanismi che mostrino il processo decisionale del modello di intelligenza artificiale quando identifica e respinge contenuti offensivi. Questa trasparenza sarà utile qualora sorgessero problemi in futuro.

un globo di esagoni circondato da stelle

Tattica 4. Monitoraggio continuo dell'output

Dopo avere addestrato l'intelligenza artificiale, un'azienda deve continuare a rivederne l'output. Per contenuti d'importanza critica, può essere prezioso l'intervento di un revisore umano. Ciò è particolarmente utile per contenuti destinati a clienti che parlano lingue diverse e provengono da altre culture. Le aziende potrebbero anche ricorrere al supporto di un revisore umano per controlli periodici del materiale al fine di garantire la qualità e la conformità con il framework etico. Prendete in considerazione anche l'idea di dare ai clienti la possibilità di segnalare i contenuti offensivi, per poi incorporare il feedback nel lavoro continuo di ottimizzazione.

Tattica 5. Ripetizione dell'addestramento ogni volta che è necessario

Le aziende devono prevedere la necessità di ripetere l'addestramento per due motivi. Prima di tutto, all'inizio il modello di intelligenza artificiale potrebbe non "imparare" ad applicare correttamente il framework etico. Potrebbe creare erroneamente contenuti offensivi oppure il framework etico stesso potrebbe essere carente. Un secondo motivo per cui è necessario continuare a ripetere l'addestramento è legato al fatto che le norme culturali cambiano costantemente. Contenuti che potrebbero non essere offensivi oggi, potrebbero diventarlo domani, specialmente se sviluppati per clienti che parlano più lingue o provengono da altre culture. Più sono le culture e le lingue, maggiori sono le sfumature necessarie per un framework etico.  

Contattateci

Iniziate l'addestramento della vostra intelligenza artificiale insieme agli esperti di Lionbridge. Abbiamo aiutato molti clienti a sfruttare al meglio il loro LLM. Prendiamo molto sul serio l'uso responsabile e la fiducia nell'intelligenza artificiale e abbiamo sviluppato il framework TRUST. Se volete che il vostro LLM vi consenta di raggiungere gli obiettivi aziendali e di aumentare il ROI, contattateci.

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

A CURA E/O CON LA COLLABORAZIONE DI
Samantha Keefe e Susan Morgan, VP of AI Sales

Richiedete una consulenza

Immettete l'e-mail aziendale