AI 리터러시 늘리기 : 박태웅의 AI 강의 리뷰
자기계발서는 싫지만 챗GPT와 인류의 미래는 알아야겠는 사람들을 위한 보편적이고 쉬운 책이 나왔습니다. 데이터 리터러시를 넘어 AI리터러시에 대해 이야기합니다.
본 글은 한빛비즈의 신간 <박태웅의 AI 강의>를 리뷰한 글입니다📝.
- 책을 읽게 된 배경: 챗 GPT의 등장과 AI 리터러시
- 책 속 밑줄긋기 : 숫자 없이 읽는 AI의 등장과 발전
- 책에 메모하기 : AI 리터러시 알겠다고 AI 기술을 다 읽어야 하나요?
[Study Case1 : 새로운 암 치료법의 등장]
[Study Case2 : AI Hallucination 인공지능 오류] - 책을 덮으며 : 우리가 알아야하는 AI 리터러시
위 네 주제를 통해 책에 대한 배경 및 내용 일부를 다루는 추천사입니다. AI가 아닌 다른 분야의 과학기술 뉴스를 짚어보며 기술 문해력에서 오는 통찰에 대해서도 이야기합니다.
1. 책을 읽게 된 배경: 챗GPT의 등장과 AI 리터러시
챗GPT 자기계발서는 읽기 싫지만 ‘AI 리터러시’는 알아야겠어서
어느덧 챗GPT가 나온 지 8개월이 지났네요. (2022년 11월 공개) 조용히 태어났지만 신동 혹은 악동으로 세계를 휩쓴 덕분에 2023년 초여름은 시끄러웠죠.
전공인과 비전공인 둘 다 계륵처럼 보는 AI 자기계발서 신간이 지금도 쏟아져 나오고 있기도 합니다.
계륵이라고 했지만 대중적 관심이 싫은 산업계는 없습니다. 대중관심은 산업이 그 관심에 대해 호응 할 수 있기만 하면 호재죠. 그런데도 전공인들이 호재에 미묘하다면?
한빛미디어 신간이 아니라 자기계발서 출판사 신간이 서점 대표 매대를 꽉 채울 때는 그렇습니다. 서점 경제학 코너에 주식 단타 고수 신간과 부동산 투자 서적으로 가득 차 있을때 어떤 생각 하시나요? ‘아 경제학이 유행하는 구나!’ 라고 하지는 않는 것 처럼 말입니다.
원래 여름 마른 강에 비가 오면 잠시 흙탕물이 됩니다. 자칭 최고를 다투는 챗GPT 대중서들 사이에서 옥석(玉石)을 가리려면 흙탕물이 가라앉기를 기다리실수도 있습니다.
아니면 평소에 데면데면했던 전공자를 하나 찾아가 보시죠.
찾아가서 까다로운 클라이언트처럼 주문을 하면 됩니다. ‘나도 AI를 알아야하긴 할 것 같은데, 챗GPT만 알면 부자가 된다는 자기계발서는 읽고 싶지 않아. 그런데 미적분으로 시작하는 기초전문서적도 읽고 싶은건 아니’라고 말이에요.
그들은 전공서를 미뤄두고 잠시 당신을 노려볼 거에요. 그리고 ‘AI 리터러시’에 대한 책을 찾아주기 시작할 겁니다.
📋챗GPT에게 물어본 'AI 리터러시' 는
그런 AI 만물박사 지인이 없다면, 전문가들이 추천하는 전문가를 찾아 읽으시길 추천드립니다. <박태웅의 AI강의> 가 그렇습니다. 아까 이야기한 한빛미디어 이사회 의장이시죠.
오, 저한테는 책이 말을 걸어왔습니다. 네가 안 가면 내가 찾아오지.
모두연에는 제일 더울 시기에 머리를 식히고 오라는 단체 여름방학이 있습니다. 방학 0일차, 테크보이가 준 숙제부터 받았어요.
2. 책 속 밑줄 긋기: 숫자 없이 읽는 AI의 등장과 발전
<박태웅의 AI강의> 1장은 매개변수, 연속적인 다양체, 트랜스포머 개념 등을 아주 쉽게 설명하고 있습니다. 도망가지 마세요. 저는 AI 엔지니어가 아니고, 매개변수를 저자처럼 쉽게 설명할 재능도, 글을 모두 옮길 생각도 없습니다.
중요한 것은 저자가 우리를 위해서 정말 시작부터 알려준다는 점이에요.
방학동안 아버지와 같이 책을 읽었는데, 이 부분 부터 마음에 드신 것 같습니다. 아버지는 항해사이자 농사꾼이자 건축학과이지만 컴퓨터과학자는 아닙니다. 스마트폰은 쇼핑할 때와 책 읽으실 때 쓰시는 분이시죠. 새 노트북을 산다고 CPU와 GPU를 인터넷에 검색하면서 비교해보긴 하셨습니다. 그런 부모님이 계시다면 같이 읽으셔도 괜찮을 것 같습니다.
책은 우리가 아는 것 부터 시작해서, 한단계씩 인공지능이 일하는 방식(알고리듬), GPU의 성장과 함께 인공지능이 무엇을 할 수 있게 되었는지 설명하는데요.
우리가 접하는 뉴스는 전문기사여도 그렇게 친절해 본 적이 없었죠. 무엇이 성공했을 때 성공한 지점부터 설명해주니까요. 알파고, 챗GPT 모두 그랬습니다. 이런 기사들을 읽다보면 갑자기 강화학습에 대해서 배우거나, 갑자기 LLMOps 라는 BERT, ELMo, GPT 같은 단어 한복판에 떨어져서 길을 잃습니다. 스케일링과 성능지표 단어들 사이에서 헤메기 쉽죠.
물론 모두의연구소에서 발행한 다음의 내용들이 도움이 되긴 했습니다.
- ChatGPT, 출시 5일만에 100만명이 사용한 AI 챗봇
- 지금은 챗봇 전성시대!
- GPT-4 이해하기
- GPT-4 Technical Report 정리
- Language model 이야기 (1) – GPT-3 패러다임
3. 책에 메모하기 : AI 리터러시 알겠다고 AI 기술을 다 읽어야하나요?
이 이야기를 따라가다보면 답변에 대한 자유도 (=온도,Temperature) 설정하는 것에 대한 이야기가 나오고, RLHR가 나옵니다. 우리는 많은 약어들을 보다가 길을 헤매곤 했습니다. AI리터러시에 이 많은 기술들을 아는 것이 도움이 될까요? 저는 AI의 윤리 문제나 일자리를 잃는 사회문제에 대해서만 걱정하면 되는 게 아닐까요?
네, 전혀 다른 분야지만 제가 좀 더 다루기 쉬운 이야기를 하나 해보겠습니다. 물론 제 입장에서 쉽습니다. 각자 자기 편한 분야가 있는 법입니다.
[Study Case1 : 새로운 암 치료법의 등장] 기사 톺아보기
8월 4일 이번 달의 사이언스지 의학 뉴스를 들여다보면 AOH1996은 임상 1기를 갓 진행 중이지만, ‘모든 암’ 치료에 적용될지도 모르기에 주목을 받았습니다. 이런 소식이 뜨면 회사 주가는 껑충 뛰기 마련이에요. 그런데 항암제 실험에 대한 이야기는 매년 나오죠. AOH1996은 뭐가 특별할까요.
위키피디아에서는 이렇게 설명합니다.
[Study Case1] a. 단계적 이해 없이 전문 용어는 의미가 없다
우리가 위 문장을 이해하기 위해서는 몇 가지 기본 개념을 알고 있어야 합니다.
- 사람은 세포로 이루어져 있고, 세포는 핵(세포가 무엇을 해야 할지, 더불어 세 자신을 복제할 수 있는 정보를 가진 부분)과 세포질 (에너지를 쓰고 세포의 기능을 수행하는 부분)로 이루어져 있죠.
- 세포가 일하는 단위는 작은 분자구조(효소, 단백질)입니다. 이 분자들은 화학반응을 일으켜 우리 몸의 구성 물질을 만들기도 하고, 에너지를 내기도 하고, 세포의 복제 같은 복잡한 일을 수행하기도 합니다.
- 세포가 분열하고 복제하는 과정에서 핵의 정보를 잃거나 실수를 해 정상적인 복제 주기와 원래 해야 할 기능을 벗어나면 종양(암)이 됩니다.
- 세포는 태어나서 죽을 때까지 같은 주기를 일반적으로 반복합니다. 핵 안의 유전자를 두 배로 늘려놓고(G1기) – 잠깐 대기하고(S기) – 자기의 몸(세포)도 나누며 미리 복제한 유전자를 각각 옮겨 닮습니다. (G2기). 이 일은 세포의 대공사라서 세포 안에서 많은 단백질과 효소들이 관여합니다.
- 증식세포 핵항원 (PCNA) 이라는 G1과 S 사이 세포 분열 중에 발현되는 단백질이 있습니다. PCNA는 세포 주기가 진행되는데 기능하며 DNA 수리하고 복제하는데 작용합니다.
- 암세포에서는 caPCNA라는 PCNA의 변이체가 주로 발견됩니다.
- 단백질 변이체는 원래의 단백질과 같은 기능을 할 수도 있지만, 기능을 온전히 수행하지 못하거나, 엉뚱한 기능을 할 수도 있습니다.
- 암세포에서 공통적으로 caPCNA라는 변이체가 발견된다고 했지요. PCNA는 그대로 지나치되, caPCNA라는 단백질에만 반응해 기능을 멈추도록 할 수 있는 효소(여러 세포활동을 촉진하는 매개역할을 하는 작은 분자 구조)가 있다면 암세포의 세포 분열과정만을 효과적으로 멈추게 할 수 있을 것입니다!
이런 것을 표적치료 또는 분자 단위의 표적치료(영어: targeted therapy, molecularly targeted therapy)라고 부르며 암을 치료하는 데 주요한 약물 치료의 형태입니다.
단순히 모든 종류의 빠르게 증식하는 세포들을 방해하기 보다는 발암과 종양의 성장에 필요한 특정한 표적 분자의 형성을 방해함으로써 암 세포의 증식을 막습니다.
일반적인 항암 치료가 모든 종류의 세포들에게도 전부 영향을 미치는 것과 (머리카락이 빠지고, 체중이 빠지고) 다르네요. 치료기간 동안 몸은 안 상하면서, 모든 고형 종양(암)이 치료될 수도 있습니다!
[Study Case1] b. 단계적 이해를 거쳤을 때, 우리는 기사에서 그 이상의 것을 읽어낼 수 있다.
결국 위의 인용한 글은 (1) 특정 세포의 암에서만 발견되는 것이 아니라, 암세포에게 보편적으로 발견되는 caPNCA라는 단백질에 반응하는 표적치료제를 만들었고, (2) 실험실에서는 일반 세포가 아니라 표적세포에만 반응 하는 것을 확인했고, (3) 실험동물에게서도 잘 통했으며, 이제 인간을 대상으로 하는 임상 실험을 갓 시작했다는 것을 말해주고 있었습니다.
암 표적 치료제 연구 논의에서 상식인이 논지를 이해하기 위해 중요한 것은 실은 caPNCA의 구조에 어떤 모양의 효소가 반응해 무력화 할 수 있었나 하는 것은 아닐 것입니다.
우리는 전문가가 아니라 논문을 읽고 AOH1996가 caPNCA에 얼마나 효과적으로 작동하는지 기대하거나 비평하기 어렵습니다.
우리에게 필요한 지식은 실은 이 약이 세상에 나오기까지의 임상 단계에 대해서 일 거에요. 하지만 동시에 신약에 대한 기대와 걱정이 과장되어있지 않은지 알려면 최소한의 개념에 대해서는 읽고 이해할 필요가 있죠. 그게 (1) 세포와 암에 대한 기본 상식과 (2) 표적치료에 대한 일반 개념일 겁니다.
어떤 기사는 이번 시험중인 신약을 Holy Grail(성배)로 지칭하는데, 너무 과장되어 사기같습니다. 거짓말일까요? 읽어봤더니, 모든 단계는 합리적인 이야기입니다.
그럼 기대해도 될까요? 아직 임상 1단계고, 4단계의 임상 시험이 더 남았군요. 축배를 들기에는 너무 이릅니다. 전임상단계 (동물 실험 단계)에서 효과를 보였던 약물은 많습니다.
성공한다면 항암의 역사를 어떻게 바꾸게 될까요? 표적치료는 우리가 아는 머리를 밀고 전신 방사선 치료를 받는 것과 어떻게 달라질까요?
이런 판단을 전문 기자가 아니라 내가 직접 할 수 있다는 것, 짜릿하지 않나요?
[Study Case 2: AI Hallucination 인공지능 오류] 기사 톺아보기
다시 인공지능으로 돌아가지요.
<박태웅의 AI강의> 는 트랜스포머 이야기를 시작했기 때문에 자연스럽게 인공지능의 할루시네이션(Halluciation; 인공지능(AI)이 정보를 처리하는 과정에서 발생하는 오류)에 대해서 기술적으로 설명할 수 있습니다.
- 트랜스포머는 주어진 문장을 보고 다음 단어가 뭐가 올지를 확률적으로 예측합니다.
- 이 예측을 더 잘하는 매개변수의 가중치 분배를 강화학습이란 방법을 사용했습니다. 직접 인간이 가중치를 설계한 것이 아니라 그 중요도를 가장 높은 정확도가 나올 때까지 스스로 계산하게 했습니다.
- 챗GPT는 가장 높은 확률의 답변만 하게하지 않고, 답변의 온도를 조정해 조금 더 자유도를 높였기 때문에 같은 질문을 해도 매번 답변이 다릅니다.
- 이건 말을 만들어내는 모델이고, 대단히 많은 데이터들을 바탕으로 학습했습니다.
- 아주 어려운 문제도 이미 학습된 데이터 안에 있으면 너무 쉽게 재생산 할 수 있습니다.
- 존재하지 않는 사실을 물어본다면 나머지 모호한 부분 역시 재생산해서 답변할 겁니다.
- 인간이 투입을 조절해서 결과물을 바꾸려고 해도, 이미 학습에 사용된 데이터는 너무 많습니다.
- 인간은 어떤 단어가 다음에 올지 확률을 만드는 가중치가 AI 모델 내부에서 어떻게 정해지는지 완벽하게 파악할 수 없습니다.
- 인간은 더 많은 GPU와 더 많은 데이터로 이걸 더 고도화할 수는 있지만, 인간이 원하는 대로 고도화할 수는 없군요!
[Study Case 2] a. 농담하고 비웃는 사람은 이해했다고 할 수 없다
뉴욕타임즈에서 5월에 AI챗봇의 오류 답변들을 걱정하는 기사를 쓰기도 했죠.
우리는 뉴스에서 이전의 인공지능 서비스나 챗GPT가 엉뚱한 답을 내놓은 것들을 보면서 웃고 놀리거나 안심하고 지나가는 가십거리(meme)으로 소비하고 지나가곤 했어요.
얀 르쿤이라는 세계적인 AI학자는 “거대언어모델은 인간 수준의 인공지능으로 향하는 고속도로에서 옆길로 새버린 것”이라고 말했습니다.
- 챗GPT에게 모차르트의 첼로 협주곡에 대해 물으면 쾨헬넘버까지 붙여서 다섯 곡을 내놓습니다.
- 그것이 가장 최적의 답으로 추론되기 때문입니다.
- 모차르트의 첼로 협주곡은 현존하는 것이 없습니다.
생성모델의 할루시네이션을 이해하지 못하는 현상으로 느낄 때, 대중의 생각은 밈(meme)에서 멈춥니다. 보고 웃고 SNS에 공유하고 아직 인공지능은 멀었어. 로 생각이 끝나고 맙니다. 얀 르쿤의 이야기도 대중의 비웃음을 증명하는 전문가의 말 정도로 넘기게 됩니다.
하지만 ‘단 하나의 사실이 필요한 곳에서 잠재된 패턴을 찾을 이유가 없는데, 인공지능이 여기에서 잠재된 패턴을 찾으려고 했기 때문에 생기는 현상’ 라는 것을 기술적으로 이해하면, 그 다음 논의로의 관문이 열립니다.
- 이 기술의 극한을 추구했을 때 우리는 AGI(일반인공지능)를 만들었다고 할 수 있을까?
- 얀 르쿤이 옆길로 샜다는 것은 언어모델은 결국 사고 모델이 아니라는 뜻일까. 지금까지 대형언어모델이 선택한 길은 인간이 사고하고 추론하는 방식과 근본적으로 달랐기 때문에 새 알고리듬이 필요할 것이라는 이야기일까.
아까 암 치료제 기사를 읽었을 때와 같습니다. 단계적으로 생각 끝에 우리 자신만의 AI 이슈에 대한 생각과 판단을 발전시킬 수 있게 되었습니다.
[Study Case 2] b. 다른 기사로의 확장
이 책을 읽다보면 챗GPT가 강화학습을 통해서 매개변수의 가중치를 조정했다는 것을 알고 있기 때문에, 잘못된 답변을 막는 어떤 조치들은 실제로는 아주 임시적인 조치임을 기술적으로 이해할 수 있게 됩니다! (답변 수 제한 등) .
이것 보세요! 기술적인 조치를 해놔서 괜찮다고 기업이 내놓는 언론보도를 그대로 믿는 대신에 해석할 수 있게 되었네요.
전문가인 박태웅 저자의 말을 따라가면서 중간 장에서는 창발성과 파운데이션 모델을 다루는데요.
- 인공지능의 느닷없이 나타나는 능력(Emergent ability , 창발성) 이 나타나려면 규모가 필요하다.
- 하나의 Foundation 모델은 AI 모델 개발의 판도를 뒤집고, 이후 추가적인 개발 방향성도 파운데이션 모델에 따라 흘러간다.
이 두가지 사실을 따라가다 보면 우리는 AI 모델의 규모의 전쟁이 왜 등장하는지 이해할 수 있게 되고, 구글과 마이크로소프트의 엔비디아와 오픈 AI를 끼고 뉴스면에서 등장하는 이야기들의 맥락을 이해할 수 있게 됩니다.
또 한계에도 불구하고 세상에 끼치는 생성모델의 영향력과 명암에 대해서도 이해하죠. 이 이야기는 책에서 더 상세하게 다룹니다.
4. 책을 덮으며: 우리가 알아야하는 AI 리터러시
지금으로부터 약 60년 전에 우리가 사는 세계는 두 개가 되었습니다. CHON의 분자결합으로 이루어진 자연계와, 0과 1의 결합으로 이루어진 컴퓨터의 세계요.
교육, 운송, 금융, 광고, 의료 등 세계는 코드로 굴러갑니다. 코드로 짜여진 세계에 의존하는 인구는 80억 명입니다.
코드를 읽고 짜는 사람은 그 중 2%정도입니다. 그 중에서 인공지능을 본격적으로 업으로 삼은 사람은 얼마나 더 적을까요?
우리는 지리 학자가 아니지만 우리 집으로 가는 길은 알고 있습니다. 언어 학자가 아니더라도 국어를 합니다.
훈련 받아야 하는 고도의 과정을 무시하는 것이 아닙니다. 전문가가 아니라도 삶을 영위하기 위해서 산업에 대한 문해력은 필요합니다.
우리가 사는 세계에 대해서 이해하는 것은 자연스러운 일입니다.
이 책은 98%를 위해서 쓰였습니다. 98%의 사람이 AI 업계에 무슨 일이 일어나고 있는지 이해하길 바라면서요.
궁극적으로 이 책은 백서가 아니라 질문을 담은 녹서입니다. 현대인이 준비되지 않은 미래에 대해서 대응책을 찾을 수 있도록요.
좋은 질문은 좋은 답을 가져옵니다. 좋은 질문을 하려면 그전에 또 잘 알아야하죠.
그게 기술에 대한 ‘문해력(AI 리터러시)’ 라는 것 같아요.
이상 한빚비즈의 ‘박태웅의 AI 강의’ 소개였습니다.
책을 읽고 싶으신 분들을 위한 서점 링크는 여기에 있습니다.
아이펠 캠퍼스 – 모두의연구소가 만든 AI학교 아이펠
70명 AI 현업 전문가와 공동 개발한 AI학교 아이펠에서 함께 성장해요.