6개월 성장으로 10년을 바꿀 수 있다면.
#아이펠 #인공지능 

Responsible AI : AI를 책임감있게 만드는 방식

ChatGPT 시대에 들어서면서 Responsible AI의 중요성이 날로 커지고 있습니다. 특히 Google과 OpenAI는 비슷하면서도 서로 다른 Responsible AI에 대해 이야기하고 있습니다.

2023-06-05 | 이영빈

Stable Diffusion이 AI가 사람들에게 사용할 수 있다는 걸 보여줬다면 ChatGPT는 AI가 사회에 어떤 영향을 끼치는지 보여줬다고 생각합니다. 그렇다보니 애플 공통창업자인 스티브 워즈니악은 AI에 대한 비관적인 이야기를 하고 있으며 1000명 이상의 학자들이 AI 개발을 6개월 멈추자는 공개서한이 나오기도 했습니다. 물론 기업들이 AI가 갖고 있는 위험성을 간과하고 있지 않습니다. 빅테크들은 AI를 책임감있게 만들기 위해 전담 팀을 구성하고 운영하고 있지만 각자가 생각하는 Responsible AI에 대한 접근이 다릅니다. 이번 블로그에서는 OpenAI와 Google이 생각하는 Responsible AI에 대해 알아보고 각자의 전략에 알아본다.

OpenAI가 생각하는 Responsible AI

OpenAI는 사내 블로그를 통해 자신들이 생각하는 Responsible AI에 대해 공개하고 있습니다. OpenAI CEO인 Sam Altman, Greg Brockman, LLya Sutskever는 Governance of superintelligence에서 10년 이내에 AI 시스템은 오늘날의 대기업 못지 않은 생산성을 수행할거라고 예측하고 있으며 이를 초지능 AI(superintelligence)로 정의하고 있습니다. OpenAI도 초지능 AI가 갖고 있는 위험성에 대해 인지하고 있고 이를 해결하기 위해서 3가지 조치가 필요하다고 이야기합니다.

  1. 초지능 개발을 진행할 때 안전을 유지하는 동시에 시스템을 사회와 원활하게 통합하는 방식

  2. 초지능화 시스템을 개발할 때 특정 역량, 시스템 검사, 감사, 안전 표준 준수여부를 테스트할 수 있는 IAEA와 같은 국제 기관

  3. 초지능을 안전하게 다룰 수 있는 기술적인 역량 공유

OpenAI는 이러한 조치만큼 대중의 강력한 감독 또한 필요하며 민주적 결정 또한 필요하다고 주장합니다. OpenAI는 민주적 절차를 지키는 프로세스 개발을 위해 팀당 10만 달러의 보조금을 걸고 진행하고 있습니다. OpenAI의 목표는 10월 20일까지 해당 프로세스에 대한 프로토타입과 결과를 공개할 예정입니다.

OpenAI는 이러한 방식으로 제안하는 이유는 초지능 AI가 생산성을 증대시켜 모두에게 이익으로 다가올거라고 믿고 있는 동시에 초지능 AI의 탄생은 필연적이라고 생각하기 때문입니다. 실제로 AI 구축비용이 저렴해지고 있고 AI 모델을 만드는 주체는 점점 늘어나고 있습니다. 그렇기에 OpenAI는 글로벌 감시체계의 필요성을 주장하고 있으며 그것 또한 문제가 생길시에 민주적인 절차로 해소하길 원하고 있습니다.

Google이 생각하는 Responsible AI

거시적인 담론을 갖고 이야기하는 OpenAI와 달리 Google의 Responsible AI는 자체적으로 강력한 시스템을 구축하는 필터링 시스템을 강조하고 있습니다. Google Research는 현재 Responsible AI at Google Research 시리즈로 자사의 시스템에 대한 이야기를 실고 있으며 2022년에 진행했던 회고에서도 Responsible AI가 어떻게 작동했는지 알 수 있습니다.

Google의 Responsible AI는 Responsible AI 자체에 대한 연구, Google에서 만든 AI 제품에 대한 Responsible AI에 대한 연구, Responsible AI에 대한 도구와 기술, AI의 사회적 혜택 입증하는 연구로 나누어 진행하고 있습니다.

Responsible AI 자체에 대한 연구는 머신러닝 시스템이 실제 상황에 도달했을 때 평가가 달라지는 경우 평가에 대한 새로운 지표를 연구하거나 문화적 맥락과 소수자의 목소리도 대변할 수 있는 AI 개발에 대한 연구, 일반인들이 쉽게 탐색할 수 있게 만드는 해석가능한 AI 연구, AI에 대한 창의성을 불어넣어주는 AI 연구 또한 진행하고 있습니다.

Google에서 만든 AI제품에 대한 Responsible AI 연구의 대표적인 사례로는 Google Photo에 내장된 Monk Skin Tone 척도가 있습니다. 해당 연구는 skin tone을 10가지 색조로 만들어서 이미지 검색이나 사진에 필터를 넣을 때 다양성과 피부톤을 개선할 수 있다고 합니다. 또 다른 연구로 Google 검색에서 세이프서치를 개선해 인종, 성적 취향, 성별과 관련된 검색에서 충격적인 검색 결과를 30%정도 줄였다고 합니다. 이러한 방식으로 Google AI 제품을 개선해 나가는 작업 또한 Responsible AI라 볼 수 있습니다.

Responsible AI에 대한 도구와 기술에서 Google은 모델에서 사용하고 있는 데이터셋들을 문서화를 진행해 윤리적인 고려사항이나 데이터 집합의 출처를 밝히고 있으며 개인 및 그룹의 고정관념이 있는 형용사, 단어를 공개하거나 댓글의 유해성을 모아놓은 게시물 데이터셋을 만들어 AI필터링을 위한 모델을 만들어내고 있습니다.

마지막으로 AI의 사회적 혜택을 입증하는 것 또한 Responsible AI의 영역이라고 생각하고 있습니다. AI를 통해 사투리를 해석하는 모델을 만들어서 다른 말도 쉽게 이해할 수 있게 만들거나 장애를 가진 분들에게 도움이 되는 음성 접근성 프로젝트 또한 진행하고 있습니다. 뿐만 아니라 만성 질환에 시달리는 저소득층을 위한 AI 시스템 또한 만들어서 배포하고 있습니다.

이렇듯 Google이 생각하는 Responsible AI는 단순히 초지능 AI에 대한 담론을 이야기하기보다 실제 Google에서 연구를 진행할 때 지켜야 하는 규칙에 가깝습니다. 즉 Google 자체에 필터링 시스템을 공개하면서 초지능 AI 또한 예외없이 해당 내용으로 관리한다고 보여집니다.

다른 기업들의 Responsible AI

Meta와 Microsoft 또한 Responsible AI 원칙을 세워 관리하고 있습니다. 두 회사가 생각하는 Responsible AI는 개인정보 보호, 공정성, 편향성, 유해성에 초점을 맞추고 있습니다. Meta의 경우 데이터셋 공개할 때도 포함되지만 Microsoft의 경우 모델을 공개할 때에 국한하고 있습니다.

다만 Meta, Microsoft 모두 Responsible AI를 진행한다고 보기에는 몇가지 우려점이 있습니다. Meta의 경우 LLaMA를 공개했지만 weight의 경우 연구용으로 배포했지만 결국 유출이 되었습니다. 물론 LLaMA의 weight가 유출되면서 오픈소스 LLM이 더욱 커졌으나 유출에 대한 책임이 Meta가 지고 있지 않기 때문에 위험한 모델이 출시되었을 때 이러한 태도는 위험하다고 생각합니다.

Microsoft는 3월에 AI ethics and society team 전원을 해고했습니다. Microsoft의 공식적인 입장은 이미 원칙을 세웠기 때문에 추후 모델을 만들 때도 문제가 없다고 주장하고 있지만 내부에서 AI ethics and society team이 Microsoft의 AI ethics를 담당하고 있었기에 해당 소식은 위험하다고 생각됩니다.

정리하며

img

ChatGPT가 나오면서부터 이제는 Responsible AI가 매우 중요해졌다고 생각합니다. 특히 OpenAI가 이야기하는 초지능 AI는 우리의 삶을 긍정적으로 바꿀 수도 있지만 부정적으로 바꿀 수도 있습니다. 그렇기에 외부에서 AI 연구를 감시하는 집단 또한 필요하다고 생각합니다. 그러나 이런 집단도 모든걸 감시할 수 없습니다. Google처럼 기업 자체 프로세스를 갖고 있는 것도 중요합니다. 그러나 기업은 기조가 바뀌게 되면 프로세스를 폐기할 수 있습니다. 결국 인공지능 연구자들 스스로가 Responsible AI에 대한 접근이 필요하다고 생각합니다. 연구를 진행할 때 연구가 갖고 있는 파급력을 고려하고 그것에 맞춘 모델을 공개하는 것이 Responsible AI를 지키기 위한 AtoZ라고 생각합니다.

AI윤리에 대해 알고 싶다면 해당 블로그도 도움이 많이 됩니다!