책임감 있는 AI의 발전을 위한 계획
이 블로그는 구글 The Keyword 블로그(영문)에서도 확인하실 수 있습니다.
“무엇을 할 수 있는가?”만이 아닌, “무엇을 해야 하는가?”에 대한 논의가 필요합니다.
바드(Bard)와 같은 생성형 AI(Generative AI) 실험, 팜(PaLM) 및 메이커스위트(MakerSuite) API와 같은 도구 등 AI 생태계 전반의 서비스는 날로 증가하고 있습니다. AI의 혁신적인 잠재력은 큰 기대를 갖게 하지만, AI 오남용 가능성에 대한 우려도 존재하는 것이 사실입니다.
AI는 엄청난 변화를 가져올 수 있는 기술이며, 이미 오래 전부터 보이지 않는 곳에서 활용되어 왔습니다.
인터넷에서 검색을 하거나 최신 스마트폰을 사용해 본 적이 있다면, 이미 AI를 경험한 것입니다. 사용할 때는 눈치채지 못했을 수도 있지만, AI는 보이지 않는 곳에서 더 나은 그리고 더 안전한 환경을 만들어 주고 있습니다. (구글이 AI에 집중하는 이유에 대해서는 기존 블로그에서 확인할 수 있습니다.)
AI는 이제 개인 맞춤형 의료 서비스, 정밀 농업, 핵융합, 담수화 및 재료 과학과 같은 다양한 과학 분야에서 새로운 가능성을 열어주고 있습니다. 딥마인드(DeepMind)의 공동 설립자인 데미스 하사비스(Demis Hassabis)는 이러한 현상을 두고 “디지털의 속도로 진행되는 과학적 탐사”라고 부르기도 했습니다. 이제 미래에 일어날 수 있는 재난에서 단백질 구조에 이르기까지, 모든 것을 예측하는 AI 기술의 놀라운 능력이 주목을 받고 있습니다. 이는 기후 변화부터 식량 부족을 아우르는, 전 지구적 문제를 해결할 수 있는 인류의 중요한 역량일지도 모릅니다.
그렇다면 이러한 잠재력을 실현하기 위해서 무엇이 필요할까요? 이에 대한 답으로 구글 기술 및 사회 부문(Technology and Society) SVP인 제임스 마니카(James Manyika)는 다음과 같은 사고 실험을 제안했습니다.
‘지금 당신은 2050년에 살고 있습니다. AI는 사회에 매우 유익한 것으로 밝혀졌습니다. 그 동안 무슨 일이 일어났을까요? 우리는 어떤 기회를 얻었을까요? 그리고 어떤 문제를 해결했을까요? ’
보다 심층적인 논의의 출발점이자 가장 명확하고 근본적인 해답은 시민, 교육자 및 학계, 시민 사회, 정부가 AI 개발 및 활용에 대해 관심을 가지고, 힘을 모아야 한다는 점입니다.
책임감 있는 AI란 무엇일까요?
업계와 시민 사회 전반에 걸쳐 AI의 책임에 대한 많은 논의가 있었지만, 이를 모두가 받아들일 수 있도록 정의하기란 쉽지 않습니다. AI에 관한 책임이란 단순히 위험을 피하는 데 있다고 생각되곤 하지만, 실제로는 두 가지 측면이 있습니다. 즉, 복잡성과 위험을 완화할 뿐만 아니라 사람들의 삶을 개선하고 사회 및 과학적 문제를 해결하도록 돕는 것입니다. 많은 이들은 정확성, 개인 정보 보호, 공정성, 투명성 등과 같은 중요한 사회적 가치들을 반영해야 한다는 점에는 동의합니다. 비록 이들간 균형을 찾는 일이 조금 어려울지라도 말입니다. 한편, 얼마나 신속하고 광범위하게 최신 기술을 활용해야 하는가에 대해서는 의견이 분분합니다.
2018년, 구글은 AI 원칙을 선도적으로 발표한 기업 중 하나였습니다. 인터넷 경험을 통해 배워가며 얻은 모든 혜택과 문제점을 바탕으로 구글은 처음부터 사회적 이익을 위해 제품을 설계했고, 제품에 더욱 지혜롭게 견제와 균형의 방안을 구축하려고 노력했습니다.
AI가 “사회적으로 유익해야” 한다는 구글의 첫 번째 원칙은 이 핵심적인 ‘균형’에 주목하고 있습니다. 바로 “예상되는 전반적인 혜택이 예측 가능한 위험과 단점을 월등히 능가해야 한다.”는 것입니다.
그렇다면 무엇이 필요할까요?
이러한 원칙을 실천하는 일은 물론 어렵지만, 구글은 수년간 실행해왔습니다. 구글은 기존에 현대 언어 모델의 기반인 트랜스포머(Transformer)에 대한 획기적인 연구를 발표한 바 있습니다. 하지만 이에 3년 앞선 2014년 이미 머신러닝 공정성에 대한 작업을 시작하였습니다. 그 이후 다양한 노력을 통해 구글은 이러한 실천 방안들을 더욱 발전시켜 왔습니다. AI의 영향 및 위험 관리에 관해 업계 선도적인 연구를 진행하였고, 새로운 AI 연구 및 적용방안에 대한 제안들을 평가하여 이들이 구글의 원칙과 일치하는지도 확인했습니다. 또한, 업계 표준을 지원하고 개발하기 위해 약 200편의 논문을 발표하기도 했습니다. 그리고 업무에 책임감과 안전성을 높이기 위한 최상의 방법을 지속적으로 재평가하고 개선 과정을 공개해오고 있습니다.
몇 가지 예를 들면 다음과 같습니다. 2021년 딥마인드는 대규모 언어 모델(LLM) 관련 윤리적 문제에 대해 초기 논문을 발표했고, 2022년에는 구글이 오디오 머신러닝 및 합성 음성 감지 기능의 기술 혁신을 공유했습니다. 같은 해에 구글은 몽크 피부 색조 척도(Monk Skin Tone Scale, MST)를 발표하고 이를 이미지 검색, 사진 및 픽셀과 같은 제품에 통합하여 다양한 피부색을 더 정확하게 짚어내기 시작했습니다. 그리고 2022년에는 팜(PaLM)모델을 발표하며 LLM의 결과물 사전 평가를 통해 새롭게 발견한 점들을 공유하기도 했습니다.
구글은 다양한 의견을 바탕으로 제품을 출시하거나 하지 않았을 경우의 혜택과 위험을 모두 평가합니다. 또한, 구글은 일부 AI 도구를 배포하는 것을 의도적으로 자제해왔습니다.
예를 들어, 2018년 구글은 안면 인식을 위한 범용 API를 출시하지 않을 것이라고 발표한 바 있습니다. 이는 다른 기업들이 해당 기술을 사용할 수 있는 법적, 기술적 틀이 마련되기도 전에 앞다투어 뛰어들었던 것과는 상반된 행보였습니다. 또한, 구글 내 한 부서가 청각 또는 언어 장애가 있는 사람들을 도울 수 있는 독순술용 AI 모델을 개발했을 때에는, 해당 기술을 대중을 감시하는데 사용할 수 없도록 하기 위해 연구 논문을 발표하기 전 엄격한 검토를 실시했습니다.
구글은 점점 더 많은 사용자에게 바드를 공개하면서 피드백, 안전 및 책임을 우선시하고 대화 횟수 상한제와 같은 방침을 마련했습니다. 이를 통해 바드와의 상호작용이 유용하면서도 주제를 벗어나지 않도록 하였습니다. 또한 해당 모델이 할 수 있는 것과 할 수 없는 것에 대한 기대치를 신중하게 설정했습니다. 미국 철학자인 대니얼 데닛(Daniel Dennett)이 말했듯이, 능력과 이해력을 구별하는 것이 중요합니다. 그리고 우리는 이제 막 시작단계에 서있습니다. 앞으로 몇 주, 몇 달 동안 구글은 피드백을 기반으로 생성형 AI 실험을 지속적으로 개선해 나갈 것입니다.
최첨단 AI의 개발은 이제 막 떠오르고 있는 기술입니다. 즉, 이 기술의 위험과 기능을 평가하는 방법을 알아가는 과정은 단순히 모델을 훈련시키고 결과를 평가하기 위해 기계적으로 규칙을 프로그래밍하는 차원을 넘어서는 것입니다.
어떻게 함께 더 잘 협력할 수 있을까요?
이러한 접근 방식을 어느 기업도 단독으로 진행할 수는 없습니다. AI 책임은 협력이 필수적이며, 올바른 균형에 도달하기 위해 여러 관점을 제시해야 하는 공동의 과제입니다. 뉴욕타임스 칼럼니스트 토머스 프리드먼(Thomas Friedman)은 이를 “집합적 조정 연합체(complex adaptive coalitions)”이라고 부릅니다. 인터넷의 탄생 과정에서 우리가 목격했듯이 공통된 표준, 프로토콜, 거버넌스 제도는 모두에게 혜택을 제공합니다.
이러한 이유로 구글은 AI를 올바르게 사용할 수 있도록 다른 사람들과 협력하기 위해 최선을 다하고 있습니다. 수년에 걸쳐 구글은 책임감 있는 AI를 개발할 수 있도록 표준 및 지침 수립에 전념하고 있는 연구원 및 학자들과 커뮤니티를 구축했습니다. 호주국립대학교, 미국 캘리포니아 대학교 버클리 캠퍼스, 데이터 및 사회 연구소(Data & Society Research Institute), 에딘버러 대학교, 맥길 대학교, 미시간 대학교, 미국해군대학원(Naval Postgraduate School), 스탠포드 대학교, 스위스 취리히 연방 공과 대학교(Swiss Federal Institute of Technology)와 같은 기관의 대학 연구원들과도 협력하고 있습니다.
또한, 국제 표준 및 공통 모범 사례 개발을 지원하기 위해 인공지능 분야에서 ISO(국제표준화기구)와 국제전기표준회의(IEC) 간 공동 기술 위원회의 표준화 프로그램에도 기여했습니다.
이러한 파트너십은 AI와 관련된 복잡한 AI 연구 문제에 대해 여러 분야의 전문가와 교류할 수 있는 기회를 제공하고, 과학적인 부분에서 윤리적인 부분에 이르기까지 다양한 영역을 넘나드는 주제에 대해 함께 연구할 수 있도록 합니다.
올바른 AI 공공 정책을 위해서는 무엇이 필요할까요?
AI에 관해서는 개별적인 모범 사례와 공유된 업계 표준이 모두 필요합니다. 하지만, 사회에는 그 이상의 것이 필요합니다. 바로, 남용의 위험을 줄이면서 발전을 촉진하는 건전한 정부 정책입니다. 그리고 좋은 정책 개발을 위해서는 정부, 민간, 학계, 시민 사회 전반에 걸친 심층적인 논의가 필요합니다.
오랜 기간 강조해 왔듯이, AI는 규제가 반드시 필요한 영향력이 큰 영역일 뿐만 아니라, 제대로 된 규제가 필요합니다. 이를 위해서는 위험을 완화하는 동시에 AI가 사회적으로 도움이 될 수 있도록 믿을 수 있는 방식으로 활용을 촉진해야 합니다.
이러한 규제의 지침이 될 수 있는 핵심 원칙은 다음과 같습니다:
- 개인정보보호, 안전 또는 기타 공공 목적에 적용되는 많은 규제가 이미 AI 애플리케이션에 완전히 적용되고 있다는 점을 감안해, 기존 규제를 기반으로 기술을 발전시킵니다.
- AI는 개발자, 배포자 및 이용자에 따라 각각 맞춤화된 접근방식과 서로 다른 책임이 필요한 다목적 기술입니다. 이에 AI의 활용에 중점을 두고 균형적인 위험 기반 프레임워크를 도입합니다.
- 국제적인 제휴가 필요한 점을 고려해 AI 표준 및 거버넌스에 대한 상호 운용 가능한 접근 방식을 장려합니다.
- 불완전한 AI 시스템도 기존 프로세스를 개선할 수 있다는 점을 감안해 비 AI 시스템과 AI 시스템 간의 기대치를 동등하게 설정합니다.
- 이용자에게 권한을 부여하고 신뢰를 구축하면서 책임감을 키울 수 있는 투명성을 증진시킵니다.
무엇보다도 AI를 위한 새로운 프레임워크를 수립할 때에는 정책입안자들이 경쟁, 콘텐츠 관리, 개인정보보호, 보안 등과 같이 주요 쟁점이 되는 정책 목표들을 조화롭게 반영하는 것이 중요합니다. 또한, 기술이 발전함과 함께 규칙도 진화할 수 있는 메커니즘을 포함해야 합니다. AI는 여전히 매우 역동적이고 빠르게 움직이는 분야이며 우리 모두는 새로운 경험을 통해 배우게 될 것입니다.
전 세계적으로 이미 다양한 이해관계자가 함께 노력하고 있기 때문에, AI 프레임워크와 책임감 있는 실행 방식을 정립할 때 처음부터 모든 것을 새롭게 시작할 필요는 없습니다.
미국 국립표준기술연구소(NIST)의 AI 위험 관리 프레임워크(AI RMF) 및 OECD의 AI 원칙 및 AI 정책 전망대(AI Principles and AI Policy Observatory)가 대표적인 두 가지 예입니다. 개방적이고 협력적인 프로세스를 통해 개발된 해당 지침들은 새로운 AI 애플리케이션, 위험 관리 및 개발에 적용할 수 있는 명확한 지침을 제공합니다. 그리고 구글은 유럽 연합에서 계류 중인 AI 법안과 같은 제안들에 대해서도 피드백을 계속 제공하고 있습니다.
규제 기관은 제품 안전을 보장하고 불법적인 차별을 금지하는 규칙과 같이 기존 권한을 사용하는 방법을 먼저 살펴보는 동시에, 과거에는 없던 문제를 관리하기 위해 필요한 새로운 규칙을 만들어가야 합니다.
다음 단계는 무엇일까요?
문자의 출현부터 인쇄기의 발명, 라디오와 인터넷의 등장에 이르기까지 모든 기술의 발전이 있을 때마다 사회경제적 변화가 동반되었고, 항상 사회적 규범과 함께 법적 책임과 의무의 필요성이 제기되었습니다.
새로운 사회적 합의 및 기준을 모색해 나가야 한다는 점에서 AI도 다르지 않습니다.
우리 사회는 AI 생태계 구성원들이 서로 배려하는 접근 방식과 새로운 아이디어를 통해 과도기에 나타날 수 있는 여러 부작용에 대한 해결책을 함께 찾아 나가는 동시에 AI가 가진 놀라운 잠재력을 극대화할 수 있다는 긍정적인 믿음을 가져야 합니다. 그러나 이를 올바르게 실천하기 위해서는 우리 모두의 협력과 적극적인 참여가 필요합니다.
책임감 있는 AI의 발전을 위해 공동의 목표에 함께 참여하는 것. 이는 단순한 이상적인 일이 아닌, 필수적인 일입니다.