AI 발전을 위해 구글이 업계, 정부, 시민 사회와 협력하는 방법
이 블로그는 Google Keyword 블로그(영문)에서도 확인하실 수 있습니다.
인공지능(AI)은 혁신적인 기술입니다. 지난 20년간 일어났던 전례없는 혁신 기술들 사이에서도, AI는 전 세계 모든 이들을 위한 변곡점이 될 수 있는 좀 더 특별한 기술입니다. 오늘날 우리는 AI로 의약품 개발을 가속화하고 에너지 소비를 개선하며, 사이버 보안을 혁신하고 접근성을 향상시키는 사례를 갈수록 더 많이 목도하고 있습니다.
AI 기술을 더 많은 곳에 지속적으로 사용하며 기술 발전을 이뤄감에 따라, 이러한 기술 발전이 파편화된 방식으로 이뤄지지 않도록 예방하는 것은 그 어느 때보다 중요합니다. 그렇기에 업계, 정부, 연구원, 시민 사회는 모두 함께 대담하면서도 책임감 있게 행동해야 합니다. 이를 통해 우리는 함께 지식을 확장 및 공유하며, 새로운 기술의 위험을 완화하고 남용을 방지하며, 전 세계 사람들을 위한 콘텐츠의 투명성을 높일 수 있는 도구를 개발할 수 있습니다.
처음부터 구글은 바로 이러한 방식으로 AI에 접근해 왔으며, 오늘 구글이 AI의 잠재력을 이해하고 이를 책임감 있게 구현하기 위해 참여 및 실천하고 있는 파트너십, 약속과 규약들을 공개하고자 합니다.
업계 연합, 파트너십 및 프레임워크
- 프론티어 모델 포럼(Frontier Model Forum): 구글은 앤트로픽(Anthroic), 마이크로소프트(Microsoft) 및 오픈AI(OpenAI)와 함께 안전하고 책임감 있게 프론티어 AI 모델을 개발하기 위해 프론티어 모델 포럼을 발족하였습니다. 또한 해당 포럼에 참여하는 파트너들은 자선 협력 기관들과 함께 새로운 AI 안전 기금을 조성해 미화 1천만 달러 이상의 자금 지원을 약속했으며, 해당 기금은 우리 사회가 가장 유능한 AI 모델을 효과적으로 테스트하고 평가할 수 있는 도구를 지속적으로 개발하고 연구하는데 사용될 것입니다.
- Partnership on AI(PAI): 구글은 생성형 AI를 이용해 창작된 미디어를 포함해 AI의 개발, 생성 및 공유에 대한 책임 있는 관행을 조성하기 위한 전문가 커뮤니티의 일원으로서 PAI의 구성을 지원했습니다.
- MLCommons: 구글은 머신러닝 혁신 가속화 및 이의 긍정적인 영향력 확대를 목표로 하는 공동체 MLCommons의 일원입니다.
- Secure AI Framework (SAIF): 구글은 무엇보다도 모델 가중치(model weights) 도용, 학습 데이터 오염, 프롬프트 주입을 통한 악성 인풋 입력 등 AI 시스템과 관련된 위험을 완화하고자 보안 AI 시스템을 위한 프레임워크를 도입했습니다. 구글의 목표는 업계 파트너와 협력하여 점차 프레임워크를 확대 적용해나가는 것입니다
- Coalition for Content Provenance and Authenticity (C2PA): 구글은 최근 C2PA에 운영위원으로 합류했습니다. 이 연합은 사람들에게 디지털 콘텐츠에 대한 더 많은 투명성과 맥락을 제공하기 위한업계 전반의 노력을 대변하고 있습니다. 구글은 기술 표준 개발을 지원하며, 콘텐츠가 어떻게 생성되고 그 이후 편집되었는지 보여주는 위변조 방지 메타데이터인 콘텐츠 자격 증명(Content Credentials)의 추가 채택을 지원합니다.
정부 및 시민 사회와의 협력
- Voluntary White House AI commitments: 구글은 백악관에서 기타 다른 기업들과 함께 모두에게 유용한 AI를 개발하고 사용하기 위한 책임감 있는 관행을 발전시킬 것을 공동으로 약속했습니다. 그리고 약속 이행의 측면에서 상당한 진전을 이뤘습니다.
- G7 행동 강령: 구글은 전 세계적으로 안전하고 신뢰할 수 있는 보안 AI 촉진을 목표로 하는 G7의 자발적인 행동 강령을 지지합니다.
- US AI Safety Institute Consortium: 구글은 미국 국립표준기술연구소(NIST)의 AI Safety Institute Consortium에 참여하고 있으며, 이 컨소시엄 참가자 모두는 안전하고 신뢰할 수 있는 AI를 전 세계적으로 발전시키기 위해 노력하며 전문 지식을 공유할 예정입니다.
- 영국 AI 안전 연구소: 영국 AI 안전 연구소(UK AI Safety Institute)는 장기적인 전문성 및 역량 강화를 위해 연구를 진행하고 안전성을 확보할 수 있도록, 구글의 가장 유능한 AI 모델을 사용할 수 있습니다. 이에 구글은 AI 모델에 대한 더욱 강력한 평가 체계를 구축하는 것은 물론, AI 부문의 발전에 따라 모범 사례에 대한 합의를 모색하기 위해 적극적으로 협력하고 있습니다.
- National AI Research Resource(NAIRR) 파일럿: 구글은 미국 전역에서 AI 연구 민주화를 목표로 하는 미국 국립과학재단(NSF: National Science Foundation)의 NAIRR 파일럿 프로그램에 구글의 최첨단 도구, 컴퓨팅 및 데이터 리소스를 지원하고 있습니다.
구글은 앞으로도 이러한 노력을 확대해 나가며, 무엇보다 업계, 정부 및 시민 사회와 함께 진행하는 최신 협업 프로젝트들을 더 많이 공유하겠습니다.