양자컴퓨팅 그리고 머신러닝의 만남
양자컴퓨터는 고전컴퓨터와 달리 양자 우월성에 도달해 우수성을 증명했지만 여러가지 난관이 남아있습니다. 양자 컴퓨터와 머신러닝의 조합은 고전컴퓨터를 활용하는 방식으로 연구되고 있지만 추후에는 양자컴퓨터로만 머신러닝이 가능한 시대가 올거라 갱각합니다.
모두의연구소에서 진행된 세미나 ‘모두팝’에서 제정우님께서 양자컴퓨팅 그리고 머신러닝의 만남 대한 내용을 발표했습니다. 이번 세미나에서 머신러닝과 양자컴퓨팅을 각각에 대해 정의하고 설명을 진행합니다. 이후 고전 컴퓨터보다 양자컴퓨터가 좋은 이유에 대해 설명했습니다. 마지막으로 현재 양자컴퓨터에 대한 한계점을 설명하고 추후 머신러닝과 양자컴퓨팅이 결합된 미래에 대해 설명하셨습니다.
머신러닝과 양자컴퓨터
우리가 기존에 만들었던 대부분의 모델은 관측을 통해 모델을 추출하는 과정이었습니다. 해당 과정을 진행하면 복잡한 현상을 쉽게 이해할 수 있으며 대략적인 경향성을 파악할 수 있습니다. 모델이 이해하기 쉽고 경향성 파악할 수 있다보니 실험 혹은 의사결정의 방향을 쉽게 결정할 수 있습니다.
그렇다면 우리가 생각하는 좋은 모델의 조건은 어떤 것이 있을까요? 좋은 모델은 예측력이 매우 좋아야 하는 동시에 단순성이 매우 높아야 한다고 생각합니다. 만일 예측력이 동일하다면 단순한 것이 훨씬 좋기 때문입니다.
좋은 모델에 대한 조건은 오컴의 면도날 이론과 상당히 부합합니다. 이를 기반으로 보면 우리가 설명한 회귀모델은 표현력은 비교적 낮지만 단순성이 높은 편에 속하며 가장 핫한 모델인 ChatGPT는 표현력은 매우 높지만 모델 자체는 매우 복잡한 형태로 이루어져 있어 단순하지 않습니다. 그렇다면 현재 모델에는 어떤 문제들이 존재할까요?
고전 컴퓨터의 한계
현재 머신러닝은 많은 성공사례를 갖고 있습니다. 대표적인 사례로 알파고, ChatGPT가 있으며 특히 ChatGPT는 Transformer 기반으로 만들어져 있는 모델입니다. 해당 모델들은 위에 설명했던 것처럼 예측력은 매우 뛰어나지만 리소스가 많이 필요하며 계산 능력의 한계를 내포하고 있습니다.
현재 머신러닝을 돌리기 위해서 반드시 필요한 장비는 GPU입니다. ChatGPT와 같은 거대 모델을 만들기 위해서는 최신 GPU 수천대로 이루어진 데이터센터를 건설해서 학습시켜야 합니다. 해당 장비를 마련하는 비용과 데이터센터 건설비만 해도 엄청난 비용이 발생합니다.
뿐만 아니라 거대 모델에 필요한 전력량 또한 만만치 않게 많습니다. 실제 2022년에 구글에서 발표한 PaLM은 학습을 진행할 때 미국 전체 전력의 0.0001%를 사용했습니다. 이것으로만 봐도 엄청난 수치이지만 점점 모델의 크기가 커져가고 있어 전력량 또한 무시못할정도로 사용될 거라고 예측됩니다.
현재 고전 컴퓨터로는 풀기 어려운 문제가 산재해 있습니다. 고전 컴퓨터는 결정론적인 알고리즘으로 다항 시간에 해결할 수 있는 문제를 푸는데 익숙합니다. 그러나 외판원 문제처럼 비결정론적인 알고리즘으로 조합을 최적화시키는 문제에 있어서 풀 때 직접 서치하면서 찾는 알고리즘으로 풀기 때문에 비효율적이라 볼 수 있습니다.
양자 컴퓨터
양자컴퓨터 이론은 리차드 파인만과 폴 베니오프가 증명했습니다. 두분의 이론에 따르면 정보는 물리 시스템의 상태로 정의됩니다. 그렇기에 양자컴퓨터는 인공원자들로 이루어져있고 원자에 정보를 저장합니다. 또한 연산의 경우 빛을 통과하는 방식으로 진행합니다. 양자컴퓨터는 가역 연산이 가능하고 정보처리도 비결정적인 결과로 나옵니다. 가역 연산이 가능해지면 계산 과정에서 열 발생을 하지 않아 열 발생이 필연적인 고전 컴퓨터보다 친환경적이라고 볼 수 있습니다.
양자컴퓨터의 가장 큰 매력 포인트는 고전 컴퓨터와 달리 시뮬레이션이 가능하다는 점입니다. simulation을 하는 방법은 강한 시뮬레이션과 약한 시뮬레이션이 있습니다. 강한 시뮬레이션은 인공원자인 qubit 사용량을 점점 늘리면서 실제 시뮬레이션을 돌리는 방식입니다. 한편 약한 시뮬레이션은 여러개의 qubit으로 랜덤회로를 거쳐 측정을 해 확률분포를 추적하는 방식입니다. 구글에서는 이러한 시뮬레이션 방식이 기존에 슈퍼 컴퓨터보다 연산을 더 잘하게 되어 양자 우월성이 입증되었다는 논문을 게시했습니다.
양자 컴퓨터의 활용과 한계
양자 컴퓨터를 활용해 인수분해, 데이터 검색, 행렬 연산과 같은 문제들을 양자 알고리즘으로 구현하는 것은 어렵습니다. 그렇기에 현재는 양자컴퓨터와 고전 컴퓨터를 혼합해서 사용하는 방식으로 구현하고 있습니다. 이를 Quantum variational 알고리즘이라 부릅니다. Quantum variational 알고리즘은 n개의 큐빗을 encoding을 거쳐 측정 데이터를 거칩니다. 이후 고전 컴퓨터로 cost function을 계산하고 파라미터를 업데이트하고 다시 양자컴퓨터로 계산하는 방식을 의미합니다. 해당 내용의 대표적인 케이스로 QAOA 모델이 있습니다.
실제 양자컴퓨터를 활용할 수 있음에도 아직까지는 상용화되지는 못하고 있습니다. 사용화가 쉽지 않은 이유는 본연의 Quantum Error가 있기 때문입니다. Quantum Error에는 장비가 제대로 정렬되지 못해 빛을 쏘았을때 인식하지 못하는 에러인 장비 정렬 에러가 있습니다. 해당 에러는 미세 조정이 들어갔을 때 쉽게 해결할 수 있습니다. 더 큰 문제는 환경의 영향으로 Quantum Error가 발생하는 것입니다. 해당 문제는 아직 풀리지 않는 숙제로 이루어져 있습니다.
두번째 문제로는 Quantum RAM이 존재하지 않아 고전 Data를 양자 상태로 encoding을 할 수 없다는 점입니다. 이 문제의 경우 새로운 하드웨어 개발이 필요한 상태이며 이 문제가 해결되지 않으면 순수 양자컴퓨팅으로 연산이 진행되기 어렵습니다. 그렇기에 Quantum RAM이 등장해야 순수 양자컴퓨팅 문제해결능력이 상용화된다고 보았습니다.
고전 컴퓨터와 양자컴퓨터를 함께 이용하는 Quantum variational 알고리즘 또한 cost function에 문제가 있습니다. 양자 사이즈가 커질수록 cost function은 학습에 매우 부족한 형태를 갖게 되어 학습시키기가 매우 어려워집니다. 이 부분을 풀어내는 것 또한 숙제입니다.
양자컴퓨팅의 전망
양자컴퓨팅은 중첩 이용이 되고 고전 컴퓨터가 쉽게 흉내 못내는 계산을 하지만 모델 사이즈가 아직까지 제한되어 있고 오류 보정이 어렵고 데이터 encoding과 알고리즘 만들기가 매우 어렵습니다. 그럼에도 고전 컴퓨터가 갖고 있는 계산 리소스 증가와 순차적인 계산은 고전 컴퓨팅으로 절대 풀 수 없는 문제들이며 이를 풀기 위해서는 양자컴퓨팅이 필요한 상황입니다. 그렇기에 일단 고전 모델의 장점과 양자 모델의 장점을 취합한 Quantum variational 알고리즘이 중요하며 이를 기반으로 기술이 성장할거라고 보고 있습니다.