AI 기초부터 핵심&최신 트렌드까지 AI학교 아이펠에서 끝내세요!
#인공지능 

잘못된 이미지로 통과한 논문? feat. AI 윤리

AI로 작성한 논문이 잘 못 통과되었다면 어떻게 될까요? AI 챗봇이 틀린 답변은 한다면 책임은 누구에게 있을까요? 최근 주목받는 AI 윤리 관련 세미나와 발표를 중심으로 흥미로운 사례를 소개합니다.

2024-03-14 | 허남철

지난 2월 13일, 발행되었다가 급히 취소된 논문이 화제입니다. 해당 논문은 Frontiers in Cell and Developmental Biology에 발행된 논문으로 줄기세포를 다루었습니다. 논문에 포함된 삽화와 오탈자가 생성 AI를 사용한 것으로 보였는데요. 특히 문제가 된 이유는 포유류의 고환과 정자를 묘사한 삽화가 전혀 말이 되지 않고, “proteins”을 “protemns” 으로 표기하거나, “zxpens” 과 같은 기형적인 단어가 사용되었음에도 불구하고 통과하여 큰 이슈가 되었습니다. 이러한 일이 발생한 이유는 정확히 알 수 없지만, 해당 저널이 Collaborative peer review 를 통해 평가하고 AI review assistant 를 활용한다는 점에서, 사람도 인공지능도, 놓친 부분이 아닌가 생각합니다. 현재는 해당 논문은 취소되었습니다.

 

AI를 활용한 논문 발행과 검토가 AI 윤리와 관련하여 우리에게 많은 고민거리를 던집니다. 이와 같은 잘못된 AI 사용이 앞으로 어떠한 문제를 가져올까요? 이대로 자유롭게 AI를 사용해도 괜찮은 걸까요?

이와 관련하여, 어제(3월 12일) 모두의연구소 모두팝 세미나에서 “기업의 AI 윤리 실천 전략“ 이라는 주제로 LG AI 연구원 안소영 님이 발표해주셨습니다. AI 윤리 현황을 사례를 중심으로 일반인들도 이해하기 쉽게 설명해 주셨고, LG AI 연구원의 활동과 성과를 소개하셨습니다. 많은 내용 중 핵심 몇 가지를 소개하고, “LG AI 윤리 책무성 보고서”와 추천 참고자료를 공유하며 본 글을 마무리 하겠습니다. 자세한 내용은 보고서와 모두팝 영상을 참고해 주세요.

AI 윤리, 왜 고민하나?

최근 AI 윤리와 관련하여 가장 큰 화두는 아무래도 AGI (Artificial General Intelligence)라고 불리는 범용 인공지능입니다. AGI의 도래 시기와 그로 인한 파급력 그리고 AI 윤리 부작용, 악용에 대한 사람들의 의견은 천차만별입니다. 혹자는 지구 종말적인 결말(영화 터미네이터, 매트릭스와 같은)을 걱정하며 대비해야 한다고 주장합니다. 하지만, 지금도 우선 해결해야 할 AI 윤리 현안이 많다고 LG AI 연구원 안소영 님은 말합니다.

AI 윤리를 고민하고 논의해야 하는 이유는 바로, AI의 안전한 개발과 사용에 대한 글로벌한 요구가 있기 때문입니다. 스탠포드에서 발표한 자료 “Do Foundation Model Providers Comply with the Draft AI Act?” 에 따르면 현재 활발히 사용되는 대다수의 모델이 기준을 제대로 충족하지 못하는 것을 확인할 수 있습니다. 이러한 AI 규제 요구 물결은, EU AI Act 뿐만 아니라 미국 백악관 AI commitments, 한국 자율 규제 가이드라인에서도 나타납니다.

이러한 글로벌 AI 규제의 공통 요구사항을 아래와 같이 분류하여 세미나에서 자세히 소개되었습니다.

  • AI 시스템 투명성
    • 데이터 출처 공개, 내/외부 레드팀 결과 공유, 시스템 로그 기록 보존, 모델 성능/한계 보고, 학습 인프라 공개
  • AI 위험 관리 및 평가
    • 모델 성능/한계 평가, 사회적 영향 파악, 모델 성능 지표 개발, 사회적 문제 연구, 모델 위험 완화, 내/외부 레드팀 활동, 제3자 적합성 평가
  • 안전 정책
    • 모델 정보 보안 관리, AI 콘텐츠 출처 표기, 품질관리 정책, 중대사고 신고

AI 윤리 사례 _ 챗봇의 실수 책임은 누구에게?

2월 14일, 에어캐나다는 고객에게 650달러를 지급하라는 판결을 받았습니다. 고객이 환불 규정과 관련하여 AI 챗봇에게 문의했는데, 내부 규정과 다르게 환불 가능하다는 답변은 받았고, 항공사가 챗봇의 오류라며 환불을 거부하자 발생한 사건입니다.

최근 많은 기업이 AI 챗봇을 도입하고 RAG 기법을 통한 업무 효율화를 하고 있습니다. 상기 사례를 보면, 기술의 발전도 중요하지만, 할루시네이션 없이 정확한 AI 와 서비스를 개발하는 것이 기업에게도 점점 필수가 되었다고 생각됩니다.

AI 윤리와 관련된 사례는 이것 외에도, 딥페이크가 선거에 주는 영향, 역사적 사실과 다르거나 차별적 답변을 하는 문제 등 다양합니다.

LG AI 윤리 원칙

LG AI 연구원에서는 이러한 “AI 활용 확대에 따라 증가하는 AI 이슈에 대비하고 윤리적인 AI 개발과 활용을 위한 그룹 공통의 원칙”으로서 5대 AI 윤리 원칙을 제정하였습니다.

또한, AI 윤리 원칙을 바탕으로 거버넌스, 연구, 참여 3가지 전략을 수립하였습니다. 구체적으로 AI 윤리 조직을 구성하고 위험 관리 프로세스를 개발에 적용하고 있습니다. 그리고, 모델의 신뢰성 평가, 데이터 품질 관리, AI 윤리 교육 등 다방면에서 노력하며 한국 AI 윤리를 선도하고 있습니다.

마무리 _ AI 윤리 자료 추천

마지막으로 AI 윤리에 관심을 시작하기 좋은 자료들을 공유하고 마치겠습니다.

  • 추천 도서 (안소영님 추천도서인건 안 비밀)

reference