AI 서울 정상회의의 성공적 개최를 기원하며
서울, 프랑스 등 세계 곳곳에서 개최되는 정상회의를 통해 프론티어 인공지능(frontier AI) 안전에 대한 국제 협력을 촉진하는 방법
이 블로그는 구글 딥마인드 블로그(영문)에서도 확인하실 수 있습니다.
지난해 영국 정부는 블레츨리 파크(Bletchley Park)에서 프론티어 AI 안전에 대한 최초의 글로벌 정상회의를 개최했습니다. 이 정상회의는 급속히 진전되고 있는 프론티어 AI 개발의 현 상황에 대한 전 세계의 이목을 집중시켰으며, 블레츨리 선언(Bletchley Declaration), 새로운 AI 안전 기관(new AI Safety Institutes), 첨단 AI 안전에 관한 국제 과학 보고서(International Scientific Report on Advanced AI Safety) 등을 포함해 미래의 잠재적 위험에 대응하기 위한 구체적인 국제 조치들을 발표했습니다.
블레츨리에서 정상회의가 열린 지 6개월이 지난 지금, 국제 사회는 이번 주 개최되는 AI 서울 정상회의에서 이 모멘텀을 기반으로 글로벌 협력을 더욱 강화할 수 있는 기회를 맞게 됐습니다. 이에 이번, 그리고 향후 개최될 정상회의를 통해 프론티어 AI 안전에 대한 글로벌 공통의 접근 방식을 더 발전 시킬 수 있는 방법에 대해 아래와 같이 공유하고자 합니다.
빠른 속도로 발전하고 있는 AI 기술
블레츨리 선언 이후, 구글 딥마인드의 성과를 비롯해 전 분야에 걸친 강력한 혁신과 발전이 이뤄졌습니다. AI는 모든 생명체의 분자 구조와 상호작용을 전례 없이 정확히 예측하는 새로운 알파폴드3(AlphaFold 3) 모델을 통해 주요 과학 영역에서 지속적으로 혁신을 주도하고 있습니다. 이러한 연구는 생물학적 세계에 대한 이해를 변화시키고 신약 개발을 가속화하는 데 도움이 될 것입니다. 이와 동시에, 구글의 제미나이 모델 제품군은 이미 전 세계 수십억 명의 사람들이 사용하는 제품을 더욱 유용하고 이용하기 쉽게 만들어 주었습니다. 구글은 또한 모델의 인식, 추론, 상호 작용 방식을 개선하기 위해 노력해 왔으며, 최근에는 프로젝트 아스트라(Project Astra)를 통해 AI 비서의 미래에 대한 구글의 비전을 공유하기도 했습니다.
이러한 AI 기능의 발전을 통해 많은 사람들의 삶이 개선될 것으로 기대하지만, 이와 동시에 안전과 관련된 여러 주요 영역에서 함께 해결해야 할 새로운 문제들도 제기되고 있습니다. 구글 딥마인드는 안전에 대한 선구적인 연구를 통해 이러한 문제를 파악하고 해결하기 위해 노력하고 있습니다. 또한 구글 딥마인드는 지난 몇 달 동안에도 속임수, 사이버 보안, 자기 확산(self-proliferation), 자기 추론(self-reasoning)과 같은 주요 기능을 평가하는 초기 연구를 포함해, 어드밴스드 모델에 대한 총체적인 안전 및 책임 평가 세트를 개발하기 위해 지속적으로 진화하는 접근 방식을 공유해 왔습니다. 또한 구글 딥마인드는 인간의 가치 및 관심사에 부합하는 미래의 첨단 AI 비서 개발에 관한 심층 연구 결과도 발표했으며, 대규모 언어 모델(LLM)을 넘어, 최근에는 알파폴드 3의 바이오 보안(biosecurity)에 대한 구글의 접근 방식을 공유하기도 했습니다.
구글은 AI 역량의 혁신만큼 안전과 거버넌스도 빠르게 혁신해야 한다고 생각합니다. 아울러, 이는 서로 지속적으로 강화하고 정보를 제공하는 방식으로 동시에 이루어져야 한다는 믿음을 바탕으로 이러한 작업들을 진행하고 있습니다.
프론티어 AI의 위험에 대한 국제적 공감대 형성
첨단 AI 시스템의 이점을 극대화하려면 현재 모델이 갖고 있는 것 이상의 새로운 위험을 예측하고 이에 대비하는 등 주요 프론티어 안전 문제에 대한 국제적 공감대를 형성해야 합니다. 그러나 이러한 잠재적 미래 위험은 불확실하기 때문에 정책 입안자들은 독립적이고 과학적 근거에 기반한 시각을 요구하고 있습니다.
따라서, 첨단 AI의 안전성에 관한 국제 과학 보고서의 새로운 중간 보고서 발간은 AI 서울 정상회의의 중요한 부분이며, 구글도 올해 말 관련 연구 결과를 제출할 수 있기를 기대합니다. 이러한 활동들이 정상회의 진행에 있어 점점 더 중요한 기반자료로 활용될 수 있기에, 지속적으로 활동을 잘 이어간다면 국제사회 내 ‘기후 변화에 관한 정부간 협의체(Intergovernmental Panel on Climate Change)’와 같은 역할을 하는 관련 상임 조직도 구성될 수 있다고 믿습니다. 이는 국제적인 행동에 영향을 주기 위해 전 세계 정책입안자들에게 필요한 과학적 기반을 제공하는데 핵심적인 역할을 할 것입니다.
구글은 이러한 AI 정상회의가 국제적인 컨센서스를 구축하고 일관된 공통의 거버넌스 접근방식에 대해 정기적으로 논의할 수 있는 토론의 장을 제공한다고 생각합니다. 또한 프론티어 안전에 초점을 맞추면 이러한 회의가 다른 국제 거버넌스를 위한 노력과 중복되지 않고, 상호 보완적으로 진행될 수 있을 것입니다.
평가 모범 사례 및 일관된 거버넌스 프레임워크 구축
평가는 AI 거버넌스 관련 결정을 내리는 데 필요한 주요 요소입니다. 평가를 통해 AI 시스템의 기능, 동작, 영향을 측정할 수 있으며 위험 평가 절차와 적절한 완화 조치를 설계하는 데 중요한 정보를 얻을 수 있습니다. 그러나 프론티어 AI 안전성 평가는 아직 개발 초기 단계입니다.
그래서 구글이 다른 주요 AI 연구소와 함께 출범한 프론티어 모델 포럼(Frontier Model Forum: FMF)은 미국 및 영국의 AI 안전 기관 및 이해관계자들과 함께 프론티어 모델 평가의 모범 사례에 대해 논의하고 있습니다. AI 정상회의는 이러한 논의를 국제적으로 확장하고, 중복되거나 서로 상충되는 국가별 테스트 및 거버넌스 체제를 방지하는 데 도움이 될 수 있습니다. 또한, 파편화된 논의로 인해 의도치 않게 안전과 혁신에 해를 끼칠 수 있는 경우를 방지하는 것도 중요합니다.
미국과 영국의 AI 안전 기관은 안전 테스트에 대해 공통적인 접근 방식을 구축키로 이미 합의했으며, 이는 더 큰 협력을 위한 중요한 첫 걸음입니다. 구글은 시간이 지남에 따라 이를 바탕으로 전세계 공통의 접근 방식을 구축할 수 있을 것으로 생각합니다. 이번 AI 서울 정상회의의 첫 우선순위도 다양한 주체들이 협력하여 프론티어 AI 평가의 벤치마크와 접근법을 개발하고 표준화하기 위한 로드맵에 합의하는 것이 될 수 있습니다.
또한 위험 관리를 위한 공유 프레임워크를 개발하는 것도 중요합니다. 이러한 논의에 기여하기 위해 구글은 프론티어 안전 프레임워크 (Frontier Safety Framework)의 첫 번째 버전을 선보였습니다. 이 프레임워크는 심각한 피해를 야기할 수 있는 미래의 AI 기능을 사전에 파악하고, 이를 감지 및 완화하기 위한 메커니즘을 마련하기 위한 일련의 프로토콜입니다. 구글은 이 프레임워크의 실행을 통해 학습하고, AI의 위험 및 평가 과정에 대해 깊이 이해하며, 업계, 학계 및 정부와 협력하면서 프레임워크가 크게 진화해 나가길 기대합니다. 시간이 지남에 따라 이러한 구글의 접근 방식을 공유함으로써 다른 이들과 협력하여 차세대 AI 모델의 안전성을 평가할 수 있는 합의된 기준과 모범 사례들을 구축할 수 있기를 기대합니다.
프론티어 AI 안전을 위한 글로벌 접근 방식
프론티어 AI의 발전 과정에서 발생할 수 있는 많은 잠재적 위험은 본질적으로 전 세계에 존재합니다. 이번 AI 서울 정상회의는 물론, 향후 프랑스 및 다른 지역에서 열릴 미래의 정상회의를 앞두고, 구글은 프론티어 AI 안전에 대한 글로벌 협력을 발전시킬 수 있는 기회에 대해 큰 기대를 갖고 있습니다. 이러한 정상회의가 전세계적으로 공통적인 접근 방법 수립을 위한 소통의 장이 되기를 바랍니다. 프론티어 AI 안전을 위한 글로벌 접근 방식을 성공적으로 수립하는 일은 향후 사회를 향한 AI의 놀라운 혜택을 실현하는데 매우 중요한 역할을 할 것입니다.