search

라이온브리지 게임즈로 이동

언어 선택:

주황색 렌즈를 통해 데이터 패턴을 검토하는 사람
주황색 렌즈를 통해 데이터 패턴을 검토하는 사람

AI 학습과 책임감 있는 AI 구현

LLM이 편향된 유해 결과물을 생성하지 않도록 하기 위한 노력

자체 대규모 언어 모델(LLM)을 사용하기 시작한 기업이 늘면서 책임감 있는 AI가 중요한 관심사로 떠오르고 있습니다. 책임감 있는 AI의 핵심은 AI 학습과 데이터 검증을 통해 혐오스럽거나 편협 또는 편향된 AI 콘텐츠가 생성되지 않도록 하는 것입니다. 이러한 종류의 콘텐츠는 해로울 수 있으며, 다음을 비롯한 전반적인 사회 문제를 일으킬 수 있습니다.

  • 혐오 표현 확산
  • 특정 그룹이나 커뮤니티 소외
  • 정서적 불편함 유발

편향되거나 편협한 콘텐츠는 기업에도 심각한 영향을 미칠 수 있습니다. 아래에서 기업이 책임감 있게 AI를 사용하고 라이온브리지(Lionbridge)의 권장 조치를 구현하기 위해 AI 학습을 활용해야 하는 이유를 알아보세요.

비즈니스 콘텐츠에 책임감 있는 AI가 중요한 이유

기업이 책임감 있는 AI 문제를 소홀히 하여 LLM에서 편협하거나 혐오 표현이 포함된, 또는 편향된 콘텐츠를 생성할 경우 위에서 언급한 사회적 문제만 발생하는 것이 아닙니다. 기업이 여러 가지 심각한 결과를 감내해야 할 수도 있습니다. 다음과 같이 대중에게 공개되는 콘텐츠에 그와 같은 표현이 포함될 경우 부정적인 결과가 초래되기도 합니다.

  • 인쇄된 마케팅 자료
  • 공식 웹사이트 챗봇
  • 소셜미디어 게시물
  • 영업 이메일
  • 웹사이트 문구

프로세스에 사람이 전문가로서 개입하지 않으면 기업의 LLM은 불쾌감을 유발하는 다국어 콘텐츠를 생성할 가능성이 높습니다. 경우에 따라 AI가 번역하거나 로컬라이즈한 자료를 검토하고 완성도를 높이기 위해 반드시 전문가를 투입해야 할 수 있습니다. 다음은 기업이 처할 수 있는 위험입니다.

책임감 있는 AI에 대해 소홀히 할 경우 발생할 수 있는 결과

  • 명예훼손, 차별 또는 괴롭힘에 대한 소송 등 법적인 문제
  • 규제 처벌, 벌금, 제한 조치 등
  • 이해관계자, 고객 등으로부터 얻는 평판 손상
  • 고객 및 비즈니스 파트너십 상실
  • 수익 손실
  • 신뢰 회복을 위한 새로운 홍보 활동, 더 많은 AI 학습 및 개발 등 피해 완화를 위한 비용 지출
  • 직원의 사기, 충성도, 생산성 저하

기업은 이러한 결과 중 하나 또는 여러 가지를 복합적으로 겪을 수 있습니다. 이를 피하기 위해서는 올바른 조치를 취해야 합니다. 아래에서 라이온브리지의 권장사항을 확인해 보세요. 

책임감 있는 AI 사용을 보장하고 유해 콘텐츠를 방지하기 위한 5가지 전략

AI가 의도치 않게 편향되거나, 인종차별적이거나, 여성 혐오적인 또는 단지 모욕적이거나 문화적으로 금기시되는 내용일지라도 생성하지 않도록 다음 전략을 모두 또는 일부라도 구현해 보세요. 최적의 결과를 얻으려면 AI 학습 및 모니터링 프로세스 전반에 다양한 사람들이 참여하는 것이 좋습니다. 이를 통해 더욱 폭넓고 탄탄한 지식 기반을 확보할 수 있습니다. 라이온브리지의 AI 학습 전문가처럼 사회문화적 규범, 업종 및 언어 전문성을 AI에 결합시켜 줄 AI 학습 전문가의 지원을 받는 것도 고려해 보세요. 마지막으로, 기업에서 AI 개발자와 사용자를 위한 정책을 수립하고 여기에 AI 시스템을 악용할 경우에 초래될 결과를 명문화할 수 있습니다. 이러한 정책을 통해 모든 사람이 나서서 AI가 유해한 또는 불쾌감을 주는 콘텐츠를 생성하지 못하도록 돕는 동기를 부여할 수 있습니다.

디지털 형태로 떠다니는 데이터 리본

전략 #1. 데이터 큐레이션

AI 학습을 진행할 때 LLM이 편견, 인종차별, 여성 혐오 등이 없는 콘텐츠를 생성하도록 학습시키려면 적절한 데이터 수집이 매우 중요합니다. 이를 위해 기업은 두 가지 접근방식을 취해야 합니다. 첫째, 소스에서 문제가 되는 관점을 포함할 만한 데이터를 걸러내야 합니다. 둘째, LLM을 학습시키는 데이터가 다양한 의견과 시각을 대변하는지 확인해야 합니다. 콘텐츠가 다양한 언어로 작성되었거나 여러 지역이나 문화권에서 제작된 경우 현지 전문가나 언어전문가의 도움을 받아 작업을 진행하는 것이 좋습니다. 언어학 및 언어 분야에서 탄탄한 기반을 갖추고 있는 라이온브리지는 이러한 전문성을 바탕으로 기계학습에 필요한 자연어 처리를 지원할 수 있는 독보적 위치를 차지하고 있습니다. 

전략 #2. 윤리적 프레임워크 구축

윤리적인 결과물을 산출하도록 AI를 학습시키려면 윤리적 프레임워크를 구축하는 것이 필수입니다. 스타일 가이드나 번역 용어집을 만드는 것과 마찬가지로 기업은 모든 콘텐츠가 준수해야 할 일련의 규칙과 가이드라인을 개발해야 합니다. 이러한 프레임워크를 개발할 때 업계 표준을 적용하면 제대로 규정을 준수하고 더 좋은 결과를 얻을 수 있습니다. 다국어 또는 문화적 작업의 경우 새로운 언어와 사회적 규범 또는 금기를 포함하도록 이러한 프레임워크를 확장하고 다양화해야 할 수도 있습니다. 또한 기업은 AI 모델이 꾸준히 윤리적 결과물을 배포할 수 있도록 프로토콜과 체계를 확립해야 합니다. 

전략 #3. 윤리 및 편견의 사전 학습

사전 학습 및 세부 조정 단계에서는 편견을 완화해 주는 기술에 우선순위를 두어야 합니다. 위에서 언급한 윤리적 프레임워크를 사용하여 LLM이 편향되거나 불쾌감을 주는 콘텐츠를 식별하고 이러한 콘텐츠를 생성 또는 사용하지 않도록 학습시켜야 합니다. 사전 학습 과정에서 LLM을 테스트할 때는 윤리 및 편견에 대한 기본적인 이해를 바탕으로 데이터 유효성 검사를 하여 데이터세트를 업데이트해야 합니다. 이 단계에서도 윤리적 프레임워크가 유용합니다.

학습 시, 불쾌감을 주는 콘텐츠를 식별하고 거부할 때 AI 모델이 어떻게 판단하는지를 보여주는 메커니즘을 만드는 것도 고려해 보세요. 이처럼 투명성을 확보하면 나중에 문제가 발생했을 때 도움이 됩니다.

육각형으로 덮여 별들에 둘러싸인 지구본

전략 #4. 지속적인 결과물 모니터링

AI를 학습시킨 후에도 계속해서 결과물을 검토해야 합니다. 업무에 중요한 콘텐츠의 경우 사람이 직접 검토하는 것도 고려하는 것이 좋습니다. 이 방식은 다른 언어를 사용하는 고객과 다른 문화권의 고객을 대상으로 설계된 콘텐츠에 특히 유용합니다. 또한 품질을 보증하고 윤리적 프레임워크를 준수하기 위해 예정된 정기적 자료 감사에 사람을 투입해 직접 검토하기를 바라는 기업도 있습니다. 고객이 불쾌감을 주는 콘텐츠를 신고할 수 있도록 하고 지속적으로 이러한 피드백을 반영하여 세부 조정하는 것도 고려해 볼 만합니다.

전략 #5. 필요한 경우 재학습 진행

기업이 프로토콜에 재학습을 추가해야 하는 데는 몇 가지 이유가 있습니다. 첫 번째 이유는 AI 모델이 처음에 윤리적 프레임워크를 올바르게 적용하는 방법을 완전히 '학습'하지 못할 수 있기 때문입니다. AI가 실수로 불쾌감을 주는 콘텐츠를 생성하거나 AI 모델에 윤리적 프레임워크가 아예 적용되지 않았을 수도 있습니다. 지속적인 재학습이 필요한 두 번째 이유는 문화적 규범이 계속해서 바뀌기 때문입니다. 지금은 괜찮은 콘텐츠가 나중에 불쾌감을 유발할 수 있습니다. 다른 언어를 사용하는 고객이나 다른 문화에 속한 고객을 대상으로 개발된 콘텐츠의 경우 특히 더 그렇습니다. 문화와 언어가 다양할수록 윤리적 프레임워크에서 고려해야 할 사항도 늘어납니다.  

문의하기

라이온브리지의 전문가와 함께 AI 학습을 시작하세요. 당사는 많은 고객이 LLM을 통해 최대한의 성과를 거둘 수 있도록 지원해 왔습니다. 라이온브리지는 책임감 있는 AI 사용과 AI 신뢰를 중요하게 생각하며, 자체적으로 TRUST 프레임워크도 구축했습니다. 라이온브리지에게 맡기시면 LLM을 활용해 귀사의 목표를 달성하고 ROI를 높일 수 있습니다. 지금 바로 문의해 보세요.

  • #technology
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

작성자 및 참여자
Samantha Keefe & Susan Morgan, AI 영업 부문 부사장

상담 받기

비즈니스 이메일을 입력하세요