AI 어떻게 배워야 좋을까요? 🤔
#인공지능 

가짜 뉴스의 위험과 팩트 체크 기술

가짜 뉴스의 형태와 현황, 대처법에 대해 한국전자통신연구원의 고우영 연사님이 모두의연구소에서 AI 기반 가짜 뉴스와 허위 저작 정보 : 생성, 탐지 및 팩트 체크 기술을 주제로 모두팝 세미나를 진행해주셨습니다!

2024-03-04 | 박광석

AI를 악용한 가짜 뉴스, 심각한 위험이 될 것이라는 목소리가 높아지고 있습니다.
재작년에는 우크라이나 항복 선언 영상이 화제가 되었었고, 작년 5월, 미 국방부 펜타곤 폭발이 일어났다는 가짜 뉴스가 확산되며 미국 증시가 급락하기도 했죠.
EU, Meta 등 다양한 국제기구와 빅테크에서는 이러한 가짜 뉴스 생성을 방지하고 AI 규제 기구를 설립하는 것에 총력을 기울이고 있습니다.
이러한 가짜 뉴스의 형태와 현황, 대처법에 대해 한국전자통신연구원의 고우영 연사님이 모두의연구소에서 AI 기반 가짜 뉴스와 허위 저작 정보 : 생성, 탐지 및 팩트 체크 기술을 주제로 모두팝 세미나를 진행해주셨습니다!

백악관

백악관 테러 가짜 뉴스와 가짜 뉴스로 급락한 미국 증시

손쉬워지는 가짜 뉴스 제작, 어떤 방식으로 진행되나요?

전통적으로도 가짜 뉴스는 만들어내기 어렵지 않았습니다.
정교한 포토샵 작업을 수행하거나, 오디오의 속도를 조절하거나, 사진에 악의적인 캡션을 달아 커뮤니티로 나르면 되었었죠.
하지만 AI 인프라가 구축되고 널리 통용되면서, 가짜 뉴스는 더 만들기 쉬워지고 감쪽같아졌습니다.
Midjourney 와 Dall.e등 사실적인 이미지를 생성하는 AI는 대중적이 되었고, 딥페이크 기술로 영상과 음성의 합성도 보다 정교해졌습니다.
텍스트 생성모델은 어떨까요? 연사님에 의하면 현재 오픈 액세스 LLM은 6만여개, 그 중 뉴스 생성모델은 170여개라고 합니다.
제목과 초반 두어줄의 문장만 공들여 쓰면, 잘 쓰여진 가짜뉴스가 손쉽게 생성된다고 하네요!

가짜 뉴스! 어떻게 판별할 수 있을까요?

안타깝게도 생성AI 기술의 발전 속도에 비해, 탐지 기술은 미비한 수준에 머물러 있다고 합니다.
AI를 이용한 탐지 기술도 여러 방향으로 연구되고 있지만, 아직은 소비자들이 직접 가짜 뉴스를 판별해낼 수 있도록 그 특성을 이해하고 있어야 합니다.
먼저, 딥페이크 기술은 높은 완성도를 가지고 있지만 아직은 육안으로 구별할 수 있는 위화감이 있습니다.
LLM 생성물이 가지는 여백과 길이가 지나치게 정련된 문장, 반복적인 단어 사용, 밈에 취약한 특성도 가짜 뉴스 여부를 확인할 수 있는 지점입니다.

탐지 기술 또한, 위의 가짜 뉴스의 두드러지는 특징을 배우게 됩니다.
거기에 더하여, 본문은 물론 도메인, 날짜, 혹은 기자의 평판, 댓글의 편향까지 고려하여 가짜 뉴스를 분류해내거나 부분적으로 생성 텍스트를 감지해내는 기법이 있습니다.
여러 모델 중, ZeroGPT를 활용한 탐지 모델이 성능이 우수한 것으로 평가받고 있습니다.
모델의 성능 강화를 위해서는 비지도학습을 통해 성능을 강화하는 추세라고 하네요!
사람이 작성한 뉴스와 AI가 작성한 뉴스의 분포가 다름을 이용한다고 합니다.

가짜뉴스 판별법

가짜뉴스 판별법 (출처: IFLA)

팩트 체크! 어떻게 접근하여야 할까요?

가짜 뉴스 탐지는 사실성과 합성성에 기반하여 이루어지게 됩니다.
자세히 이야기하면, AI가 작성한 뉴스도 사실이라면 탐지에서 제외를 시킬 지, 혹은 사람이 작성한 뉴스라도 합성된 허위 뉴스라면 탐지할지를 함께 고려하게 됩니다.

이와 탐색 비용에 기반하여, 팩트 체크는 다음의 단계로 순차적으로 이루어지게 됩니다.

  • 이슈화 가능성 탐색 – 주장에 대해서 팩트 여부를 체크 할 만한 가치가 있는지?
  • 레퍼런스 탐색 – 이미 사실로 판명된 뉴스인지, 근거가 사실인지
  • 팩트 판단

세계적으로도 많은 팩트 체크 플랫폼이 위의 방식을 따르며, 전문가 그룹, 크라우드 소싱 방식, 알고리즘 서비스 등으로 팩트 체킹이 진행된다고 합니다.

앞서 소개드렸듯 AI의 악용으로 인한 위험이 높아지고 있습니다.
모두의연구소에서는 AI safety lab 등 관련 연구를 수행하는 랩들이 활동 중이며, Trusrworthy AI 최신 연구 및 서비스 분석, <AI 2041> 살롱 등의 풀잎스쿨에서 AI 악용에 대한 위험과 대비책을 심도있게 논의하고 있어요.
시대가 필요하는 AI safety literacy! 모두의연구소에서 길러보시는 건 어떨까요?
다가오는 3월에도 모두의연구소에서는 ‘AI Safety’를 주제로 모두팝이 열립니다!
많은 기대 부탁드려요 🤗

다른 AI safety 주제의 모두팝 강연이 궁금하다면? – 생성 AI의 안정성과 AI 보안