메인 메뉴 바로가기
구글코리아 블로그

AI

AI의 위험과 기회에 대응하기 위해 뮌헨안보회의에서 논의한 협력 방안

켄트 워커 블로그 히어로 이미지

이 블로그는 구글 The Keyword 블로그(영문)에서도 확인하실 수 있습니다.

뮌헨안보회의(MSC: Munich Security Conference)에서는 60년 동안 세계 지도자, 기업, 전문가, 시민 사회가 한 자리에 모여 민주주의와 국제 세계 질서를 강화하고 보호하기 위한 허심탄회한 논의를 진행해 왔습니다. 그리고 최근 증가하는 지정학적 문제와 전 세계의 주요 선거, 점점 더 정교해지는 사이버 위협 속에서 이러한 논의는 그 어느 때보다 절실합니다. 또한 위협에 대한 공격과 방어 모두에서 AI의 새로운 역할은 극적인 새로운 반전을 더하고 있습니다.

지난 2월 14일 구글의 위협 분석 그룹(TAG: Threat Analysis Group), 맨디언트(Mandiant) 및 Trust & Safety팀은 새로운 보고서를 발표했습니다. 해당 보고서에서는 이란의 지원을 받는 조직이 이스라엘-하마스 전쟁에 대한 대중의 인식에 영향을 미치기 위해 정보 전쟁을 이용하고 있음을 밝혔습니다. 또한 러시아의 우크라이나 전쟁을 사이버적인 관점에서 살펴본 이전 보고서의 최신 업데이트 된 내용도 다뤘습니다. TAG는 정부와 악의적 행위자들이 언론인, 인권 운동가, 반체제 인사, 야당 정치인을 위협하는 데 사용하는 상업용 스파이웨어의 증가에 대해서도 보고했습니다. 또한 레거시 시스템의 취약점을 악용하여 정부와 민간 기업의 보안을 침해하는 위협 행위에 관한 보고서도 계속 공개되고 있습니다.

이렇게 증가하는 위협 속에서, AI를 활용해 전 세계 민주주의의 사이버 방어 역량을 강화할 수 있는 역사적인 기회를 얻었으며, 이전에는 대기업들만 사용할 수 있었던 새로운 방어 도구를 이제는 다양한 규모의 기업, 정부 및 기관에 제공할 수 있게 되었습니다. 그리고 이번에 뮌헨에서 구글은 새로운 투자, 약속 및 파트너십을 바탕으로 AI의 위험을 해결하고 기회를 포착할 수 있는 방법에 대해 논의할 것입니다. AI를 활용한 공격이 이어지는 가운데, 이를 방어할 수 없다면 민주주의는 자리를 지켜낼 수 없을 것입니다.

AI 기반 사이버 방어 역량 강화

사이버 위협은 수십 년간 보안 전문가, 정부, 기업, 시민 사회를 위협해 왔습니다. AI는 국면을 전환해 방어자가 공격자보다 결정적인 우위를 차지하도록 할 수 있습니다. 그러나 여느 기술과 마찬가지로 AI도 안전하게 개발 및 배포되지 않으면 악의적인 공격자가 악용할 수 있으며 취약점의 매개체가 될 수 있습니다.

이러한 이유로 2월 16일 구글은 공동의 디지털 미래를 보호하고 강화하며 발전시킬 수 있도록 기획된 정책 및 기술 의제를 제안하며 보안에서의 AI 잠재력을 활용하는 AI 사이버 방어 이니셔티브를 발족하였습니다. AI 사이버 방어 이니셔티브는 조직이 기본적으로 안전한 AI 도구 및 제품을 구축하는 데 도움이 되도록 설계된 SAIF(Secure AI Framework)를 기반으로 합니다.

구글은 AI 사이버 방어 이니셔티브의 일환으로 대서양 횡단 사이버 보안 생태계를 강화하기 위한 새로운 “사이버 보안을 위한 AI” 스타트업 코호트 프로그램을 시작하고, 사이버 보안 기술을 위한 미화 1,500만 달러 상당의 지원을 유럽 전역으로 확대할 예정입니다. 또한 사이버 보안 연구 이니셔티브를 강화하기 위해 미화 200만 달러를 지원하고 구글 AI 기반의 파일 유형 식별 시스템인 Magika를 오픈소스로 공개할 예정입니다. 글로벌 데이터 센터의 안전한 AI 지원 네트워크에도 지속적인 투자를 이어가고 있습니다. 이외에도, 구글은 2024년 말까지 유럽의 데이터 센터에 미화 50억 달러 이상을 투자할 예정이며,이를 통해 버텍스 AI(Vertex AI) 플랫폼과 같은 광범위한 생성형 AI 기능을 비롯한 다양한 디지털 서비스에 대한 안전하고 안정적인 액세스를 지원할 것입니다.

민주적인 선거의 수호

올해에는 유럽, 미국, 인도 등 많은 국가에서 선거가 치러질 예정입니다. 구글은 오래 전부터 민주적인 선거의 무결성을 지지해 왔으며, 가장 최근에는 의회 선거를 앞두고 잘못된 정보가 퍼지기 전에 미리 바로 잡는 EU 프리번킹(prebunking) 캠페인을 발표했습니다. 소셜 미디어의 짧은 비디오 광고 속 흔한 조장 기술에 이용자들이 노출되기 전에 이러한 방식들을 미리 알아차리는 방법을 청중에게 알리는 이 캠페인은 올해 봄 프랑스, 독일, 이탈리아, 벨기에, 폴란드에서 시작됩니다. 또한 구글은 플랫폼의 남용을 중지하고, 유권자에게 고품질 정보를 노출하며, 사람들이 더 많은 정보를 바탕으로 결정을 내릴 수 있도록 생성형 AI 콘텐츠에 관한 정보를 지속적으로 제공하기 위해 최선을 다하고 있습니다.

AI를 악용하여 딥 페이크를 생성하고 유권자를 오도할 가능성에 관한 많은 우려들이 있습니다. 하지만 AI는 이러한 대규모 기술 남용을 방지할 수 있는 특별한 기회도 제공합니다. 구글의 Trust & Safety팀은 AI를 활용하여 악용 방지 활동을 강화하고 대규모로 정책을 시행하며, 새로운 상황이나 요청에 신속하게 대응함으로써 이 문제를 해결하고 있습니다.

구글은 업계 전반의 기업들과 지속적으로 협력하고 있으며, 연구를 공유하고 사기성 AI 콘텐츠의 위험을 비롯한 위협과 악용에 대응하기 위해 함께 협업하고 있습니다. 바로 지난 주 구글은 시간이 지남에 따라 생성형 AI 콘텐츠가 어떻게 생성 및 편집되었는지에 대한 투명성을 제공할 수 있도록 콘텐츠 자격 증명(Contents credentials)을 연구하는 Coalition for Content Provenance and Authenticity(C2PA)에 합류했습니다. C2PA는 프론티어 모델 포럼, Partnership on AI(PAI) 및 기타 이니셔티브와 같이 책임감 있는 AI를 중심으로 한 업계 간 협업을 기반으로 합니다.

규제 기반의 국제 질서 수립을 위한 협력

뮌헨안보회의(MSC)는 민주주의에 대한 도전에 맞서 싸우는 포럼으로서 오랜 세월을 견뎌왔습니다. 60년 동안 민주주의 국가들은 AI가 제시하고 있는 변화와 같은 역사적인 변화를 총체적으로 해결하면서 이러한 시험을 통과해 왔습니다. 이제 우리 앞에는 정부, 기업, 학계, 시민 사회가 다시 한번 함께 모여 새로운 파트너십을 구축하고 AI의 선한 잠재력을 활용하며, 규칙에 기반한 세계 질서를 강화할 수 있는 기회가 놓여 있습니다.