알파큐비트로 양자 컴퓨팅의 최대 난제 해결에 도전합니다
양자 컴퓨터는 신약 개발, 재료 설계, 기초 물리학 등 다양한 분야에 혁신을 가져올 잠재력을 지니고 있습니다. 하지만 양자 컴퓨터가 진정한 잠재력을 발휘하려면 안정적인 작동이 필수적입니다.
기존 컴퓨터로는 수십억 년이 걸리는 문제를 양자 컴퓨터는 단 몇 시간 만에 해결할 수 있지만, 양자 컴퓨터는 노이즈에 취약해 오류 발생 가능성이 높다는 단점이 있습니다. 특히 대규모 연산에서는 오류 발생 가능성이 더욱 높아집니다. 따라서 양자 컴퓨터의 안정성을 향상시키려면 오류를 정확하게 식별하고 수정하는 기술이 무엇보다 중요합니다.
구글은 오늘 발표된 네이처 지 논문에서 이러한 문제를 해결하기 위한 혁신적인 AI 기반 디코더, 알파큐비트(AlphaQubit)를 소개했습니다. 알파큐비트는 구글 딥마인드의 기계 학습 기술과 구글 퀀텀 AI의 오류 수정 전문성을 결합해 개발됐으며, 최첨단 정확도로 양자 컴퓨팅 오류를 식별합니다.
알파큐비트는 안정적인 양자 컴퓨터 개발을 가속화하고, 과학적 혁신과 새로운 발견 시대를 열어줄 핵심 기술로 기대를 모으고 있습니다.
양자 컴퓨터는 중첩(superposition), 얽힘(entanglement)과 같은 양자역학적 특성을 활용하여 기존 컴퓨터보다 훨씬 효율적으로 복잡한 문제를 해결할 수 있으며, 큐비트(양자 비트)를 사용하여 방대한 가능성을 탐색하고 양자 간섭을 통해 답을 찾아냅니다.
하지만 큐비트는 주변 환경에 민감하게 반응하기 때문에 오류가 발생하기 쉽습니다. 하드웨어 결함, 열, 진동, 전자기 간섭, 심지어 우주선까지도 큐비트의 상태를 교란할 수 있습니다.
이러한 오류를 해결하기 위해 양자 오류 수정 기술이 활용됩니다. 여러 개의 큐비트를 하나의 논리 큐비트로 묶고, 정기적인 일관성 검사를 통해 오류를 식별하고 수정합니다. 이 과정을 통해 양자 정보를 안전하게 보존하고 계산의 정확성을 높일 수 있습니다.
해당 그림은 3x3 큐비트 그리드(코드 거리 3)에서 9개의 물리 큐비트(작은 회색 원)가 어떻게 논리 큐비트를 형성하는지 보여줍니다. 각 단계마다 8개의 추가 큐비트가 일관성 검사를 수행합니다. 이 검사 결과는 정사각형과 반원 영역으로 표시되며, 오류가 발생하면 파란색과 자홍색으로, 정상이면 회색으로 나타납니다. 이 정보는 신경망 디코더인 알파큐비트에 전달됩니다. 실험이 끝나면 알파큐비트는 이 정보를 바탕으로 어떤 오류가 발생했는지 판별합니다.
디코딩을 위한 새로운 신경망 모델
알파큐비트는 구글이 개발한 딥 러닝 아키텍처 '트랜스포머(Transformers)'를 기반으로 한 신경망 디코더입니다. 트랜스포머는 오늘날 여러 대규모 언어 모델(LLM)의 기반이 되는 기술입니다. 알파큐비트는 일관성 검사 결과를 입력받아 실험 종료 시 논리 큐비트의 상태 변화를 정확히 예측합니다.
알파큐비트는 시카모어(Sycamore) 양자 프로세서 내부의 49개 큐비트 세트 데이터를 디코딩하는 방식으로 학습되었습니다. 다양한 설정과 오류 수준에서 수억 개의 예제를 생성하여 일반적인 디코딩 문제를 학습했고, 특정 시카모어 프로세서의 실험 샘플을 사용하여 특정 디코딩 작업에 맞춰 미세 조정되었습니다.
새로운 시카모어 데이터로 테스트한 결과, 알파큐비트는 기존 디코더보다 뛰어난 정확도를 달성했습니다. 알파큐비트는 대규모 시카모어 실험에서 정확도는 높지만 속도가 느린 텐서 네트워크 방식보다 오류를 6% 줄였고, 확장성이 뛰어난 상관 일치 디코더보다도 30% 더 적은 오류를 기록했습니다.
작은 규모(거리 3은 17개의 물리 큐비트)와 큰 규모(거리 5는 49 물리 큐비트)의 시카모어 실험에서 디코딩 정확도를 비교했습니다. 알파큐비트는 대규모 실험에서 확장이 어려운 텐서 네트워크(TN) 방식이나, 확장 속도가 빠르고 정확한 상관 매칭 방식보다 더 높은 정확도를 나타냅니다.
미래 양자 컴퓨터 시스템을 위한 알파큐비트 확장
구글은 양자 컴퓨터의 꾸준한 발전을 예상하며 더 큰 규모의 양자 시스템에도 알파큐비트를 적용하기 위해 연구를 지속하고 있습니다. 이러한 노력의 일환으로 구글은 시카모어 플랫폼의 한계를 넘어 최대 241개의 큐비트로 시뮬레이션된 양자 시스템 데이터를 활용해 알파큐비트를 훈련했습니다.
그 결과, 알파큐비트는 기존 알고리즘 디코더보다 뛰어난 성능을 입증했으며, 향후 중간 규모의 양자 컴퓨터에서도 효과적으로 활용될 수 있을 것으로 기대됩니다.
거리 3(17 큐비트)에서 거리 11(241 큐비트)까지 다양한 규모의 시뮬레이션된 양자 시스템 실험 결과를 나타낸 그래프입니다. 텐서 네트워크 디코더는 규모가 커질수록 속도가 매우 느려져 이 그래프에는 포함되지 않았습니다. 알파큐비트와 상관 매칭 디코더는 큐비트 수가 증가할수록(즉, 거리가 멀어질수록) 정확도가 높아지는 것을 확인할 수 있습니다. 모든 거리에서 알파큐비트는 상관 매칭 디코더보다 높은 정확도를 보입니다.
알파큐비트는 입력 및 출력에 대한 신뢰도를 평가하고 보고하는 고급 기능을 갖추고 있습니다. 이 기능은 양자 프로세서의 성능을 더욱 향상시킬 수 있습니다.
또한, 최대 25회의 오류 수정 데이터로 훈련된 알파큐비트는 최대 10만 회의 시뮬레이션 실험에서도 우수한 성능을 유지했습니다. 이는 알파큐비트가 학습 데이터를 넘어 다양한 상황에 일반화될 수 있음을 보여줍니다.
실용적인 양자 컴퓨팅을 향하여
알파큐비트는 양자 오류 수정에 머신러닝을 활용하는 데 중요한 이정표가 될 것입니다.하지만 아직 속도와 확장성 측면에서 해결해야 할 과제들이 남아 있습니다.
예를 들어, 고속 초전도 양자 프로세서는 초당 백만 번의 일관성 검사를 수행합니다. 알파큐비트는 오류를 정확하게 식별하는 데 뛰어나지만, 초전도 프로세서에서 실시간으로 오류를 수정하기에는 아직 속도가 충분치 않습니다. 상용화를 위해서는 수백만 개의 큐비트가 필요하며, 이를 위해서는 AI 기반 디코더를 효율적으로 훈련하는 방법을 찾아야 합니다.
구글은 머신러닝과 양자 오류 수정 분야의 선구적인 기술을 결합해 이러한 문제를 해결하고, 세계에서 가장 복잡한 문제를 해결할 수 있는 안정적인 양자 컴퓨터를 구현하기 위해 노력하고 있습니다.
자세한 내용은 네이처 지에 게재된 논문에서 확인할 수 있습니다.