[I/O 2025] 구글 I/O 2025: 이론이 현실이 되다

편집자 주: 아래는 I/O 2025 에서 발표된 순다 피차이 구글 CEO의 기조연설을 편집한 내용으로, 보다 더 많은 내용을 포함하도록 수정한 녹취록입니다. 전체 발표 내용은 자료집에서 확인하실 수 있습니다.
과거 구글은 I/O를 앞두고 여러 가지 새로운 소식을 전하는 경우는 드물었습니다. 최고의 모델은 I/O 무대 발표를 위해 아껴두기 때문입니다. 하지만 제미나이(Gemini) 시대에 접어든 지금, 구글은 시기에 얽매이지 않고 가장 뛰어난 모델을 선보이거나, 알파이볼브(AlphaEvolve)와 같은 획기적인 혁신 발표를 발표하기도 합니다.
구글은 최고의 모델을 최대한 빨리 제품에 적용해 이용자 여러분께 선보이고자 합니다. 그래서 지금, 그 어느 때보다 빠르게 혁신을 선보이고 있습니다.

끊임없는 모델의 진화
저는 제미나이 모델의 빠른 발전에 대해 특히 기대하는 바가 큽니다. 진보의 척도를 나타내는 지표인 Elo 점수는 1세대 제미나이 프로(Gemini Pro) 모델 출시 이후 300점 이상 상승했습니다. 현재 제미나이 2.5 프로(Gemini 2.5 Pro)는 LMArena 리더보드의 모든 부문에서 선두를 달리고 있습니다.
이러한 발전은 세계 최고 수준의 인프라 덕분입니다. 7세대 TPU인 아이언우드(Ironwood)는 AI의 '사고(thinking)'와 '추론(inferential)' 워크로드를 대규모로 처리하도록 특별히 설계된 최초의 TPU입니다. 이전 세대보다 10배 높은 성능을 제공하며, 포드(pod)당 42.5 엑사플롭스(exaflops)의 경이로운 연산 능력을 갖추고 있습니다. 그저 놀라울 뿐입니다.
TPU를 포함해 이런 강력한 인프라는 모델 가격이 크게 낮아지는 상황에서도 훨씬 더 빠른 모델을 제공할 수 있게 해 줍니다. 구글은 최고의 모델을 가장 효율적인 가격에 지속적으로 제공해 왔습니다. 단순히 파레토 프론티어(Pareto Frontier)를 선도하는 것을 넘어, 그 자체를 근본적으로 변화시켜 왔습니다.

전 세계적으로 AI 도입이 확산되고 있습니다.
이제 모든 이들은 어디에서나 다양한 인공지능 기술을 활용할 수 있게 되었고, 세상은 그 어느 때보다 빠르게 AI를 받아들이고 있습니다. 몇 가지 주요 지표는 다음과 같습니다:
- 작년 이맘때, 저희는 제품과 API를 통해 한 달에 9.7조 개의 토큰을 처리했습니다. 현재는 480조 개 이상의 토큰을 처리하고 있는데, 이는 50배나 증가한 수치입니다.
- 제미나이를 활용 중인 개발자 수는 700만 명 이상으로, 작년 동기 대비 5배 늘어났으며, 버텍스 AI(Vertex AI)에서의 제미나이 사용량은 40배 증가했습니다.
- 현재 제미나이 앱의 월간 활성 이용자(monthly active users) 수는 4억 명을 넘었으며, 특히 제미나이 앱에서 제미나이 2.5 프로의 사용량이 45% 증가하는 등 제미나이 2.5 시리즈 모델 이용 사례는 눈에 띄는 성장세와 높은 참여율을 보였습니다.

이론이 현실이 되다
이 모든 발전은 구글이 AI 플랫폼 전환의 새로운 국면에 접어들었음을 의미합니다. 수십 년간의 연구가 이제 전 세계의 이용자, 기업, 커뮤니티를 위한 현실이 되고 있습니다.
프로젝트 스타라인(Project Starline) → 구글 빔(Google Beam)과 음성 번역(Speech translation)
몇 년 전 I/O에서 처음 선보인 획기적인 3D 비디오 기술 ‘프로젝트 스타라인(Project Starline)’의 목표는 상대방과 멀리 떨어져 있어도 마치 같은 공간에 있는 듯한 느낌을 구현하는 것이었습니다.
구글은 기술적 발전을 거듭해 왔습니다. 그리고 오늘, 또 하나의 장을 열고자 합니다. 바로 새로운 AI 중심 영상 커뮤니케이션 플랫폼 ‘구글 빔(Google Beam)’입니다. 구글 빔은 최첨단 비디오 모델을 사용해 2D 비디오 스트림을 사실적인 3D 경험으로 변환합니다. 6대의 카메라 배열과 AI를 이용해 비디오 스트림을 병합하고, 3D 라이트필드 디스플레이(lightfield display)에 렌더링해 이용자의 모습을 사실적으로 구현합니다.이 플랫폼은 밀리미터 단위의 정밀한 헤드 트래킹(head tracking) 과 초당 60프레임의 실시간 처리로 훨씬 자연스럽고 몰입감 있는 대화 경험을 제공합니다. HP와의 협업을 통해, 최초의 구글 빔 기기가 올해 말 초기 고객들에게 선보일 예정입니다.

구글은 ‘구글 미트(Google Meet)’에서도 훨씬 더 몰입감 있는 경험을 만들고자 노력해 왔습니다. 그 일환으로, 언어 장벽을 허물 수 있도록 지원하는 음성 번역(speech translation) 기능이 곧 도입됩니다. 해당 기능은 실시간에 가깝게 화자의 목소리와 톤, 심지어 표현까지 매칭시켜 여러 언어 간 보다 자연스럽고 유창한 대화를 가능하게 합니다. 영어 및 스페인어 번역은 구글 AI 프로(Google AI Pro) 및 구글 AI 울트라(Google AI Ultra) 구독자를 대상으로 베타 버전으로 제공되며, 향후 몇 주 내 더 많은 언어가 추가될 예정입니다. 이 기능은 올해 기업용 구글 워크스페이스(Workspace) 고객에게 초기 테스트 형태로 제공될 예정입니다.
프로젝트 아스트라(Project Astra) → 제미나이 라이브(Gemini Live)
I/O에서 처음 선보인 또 다른 흥미로운 연구 프로젝트는 이용자의 주변 환경을 이해할 수 있는 범용 AI 어시스턴트(Universal AI Assistant)인 프로젝트 아스트라(Project Astra)였습니다. 제미나이 라이브(Gemini Live)는 프로젝트 아스트라의 카메라 및 화면 공유 기능을 통합해 이용자가 면접 준비부터 마라톤 훈련까지 다양한 방식으로 활용할 수 있도록 합니다. 이 기능은 이미 모든 안드로이드 이용자에게 제공되고 있으며, 오늘부터 iOS 이용자에게도 순차적으로 출시될 예정입니다.
이와 같은 기능은 구글 검색 등 구글의 다양한 제품들에게도 추가적으로 적용될 예정입니다. (→ 관련 블로그 바로가기)
프로젝트 마리너(Project Mariner) → 에이전트 모드
‘에이전트(Agent)’란 고급 AI 모델의 지능과 툴에 대한 접근성이 결합되어, 이용자가 원하는 작업을 대신 수행할 수 있는 시스템이라고 생각합니다.
‘프로젝트 마리너(Project Mariner)’는 이러한 에이전트 구현을 위한 초기 연구 프로젝트로, 웹과 상호 작용하며 이용자의 작업을 대신 수행 할 수 있는 컴퓨터 처리 능력을 갖추고 있습니다. 지난 12월 공개된 이 프로토타입은 이후 새로운 멀티태스킹 기능과 이용자가 한번 작업을 시연하면 유사 작업에 대한 정보를 학습하는 '가르치고 반복하기(teach and repeat)' 방식을 통해 많은 진전을 이루었습니다. 프로젝트 마리너의 컴퓨터 처리 기능은 제미나이 API를 통해 개발자에게 제공되며, Automation Anywhere 및 UiPath 등 신뢰할 수 있는 테스트 기업들이 이미 활용해 구축을 시작했습니다. 올여름에는 더 광범위한 대상에게 지원될 예정입니다.
컴퓨터 사용 기능은 에이전트 생태계를 구축하는 데 필요한 더 넓은 범위의 툴 중 하나일 뿐입니다. 예를 들어, 에이전트 간 통신을 가능하게 하는 개방형 Agent2Agent 프로토콜이나, 에이전트가 다른 서비스를 활용할 수 있도록 하는 앤트로픽(Anthropic)의 모델 컨텍스트 프로토콜(Model Context Protocol, MCP) 등이 이에 포함됩니다. 그리고 오늘부터 제미나이 API와 SDK가 이제 MCP 도구와 호환된다는 소식을 전할 수 있게 되어 매우 기쁩니다.
에이전트 기능은 크롬(Chrome), 구글 검색(Search) 및 제미나이 앱에도 도입됩니다. 예를 들어, 제미나이 앱의 새로운 에이전트 모드(Agent Mode)는 이용자가 더 많은 작업을 효율적으로 처리할 수 있도록 지원합니다. 아파트를 찾고 있다면 질로우(Zillow)와 같은 웹사이트에서 조건에 맞는 매물을 찾고, 필터를 조정하며, MCP를 통해 해당 매물에 접근하고, 심지어 방문 일정까지 예약할 수 있습니다. 이 에이전트 모드의 실험 버전은 곧 제미나이 앱 구독자들에게 제공될 예정이며, 질로우와 같은 기업에게는 신규 고객 유치와 전환율 향상에 큰 도움이 될 것입니다.
이 분야는 새롭고 빠르게 성장하고 있는 영역입니다. 구글은 에이전트의 혜택을 이용자와 생태계 전반에 어떻게 가장 효과적으로 제공할 수 있을지 함께 고민하고 탐색하게 되어 매우 기대됩니다.
개인화(Personalization)의 힘
연구를 현실로 구현하는 가장 좋은 방법은 현실에서 그 기술을 실제로 유용하게 만드는 것, 즉 이용자의 현실에 적용하는 것입니다. 바로 이 지점에서 개인화(personalization)가 매우 강력한 힘을 발휘할 것입니다. 구글은 '개인 컨텍스트(personal context)'라고 부르는 기능을 통해 이를 실현하고자 노력하고 있습니다. 이용자의 허락 하에, 제미나이 모델은 이용자의 구글 앱 전반에 걸쳐 관련 개인 컨텍스트를 개인적이고, 투명하며, 완벽하게 이용자의 제어 아래 사용할 수 있도록 합니다.
이에 대한 한 가지 예는 지메일의 새로운 ‘개인화된 스마트 답장(personalized Smart Replies in Gmail)’ 기능입니다. 친구가 과거에 다녀온 자동차 여행에 대해 조언을 구하는 이메일을 보내면, 제미나이는 과거 이메일과 구글 드라이브의 파일(예: 구글 문서로 만든 여행 일정)을 검색하여 요점에 맞는 구체적인 세부 정보가 포함된 답장을 제안해 줄 수 있습니다. 이용자의 평소 인사말과 일치시키고, 어조와 스타일, 심지어는 즐겨 쓰는 단어 선택까지 포착하여, 마치 이용자가 직접 작성한 듯 자연스러운 답장을 생성합니다. 개인화된 스마트 답장 기능은 올해 말 구독자들을 대상으로 제공될 예정입니다. 구글 검색, 제미나이 등에서 개인 컨텍스트가 얼마나 유용할지 상상해 보시기 바랍니다. (→ 관련 블로그 바로가기)
구글 검색 내 AI 모드
제미나이 모델은 구글 검색을 더욱 지능적이고, 능동적이며, 개인화되도록 돕고 있습니다.
지난해 출시된 AI 개요(AI Overviews)는 무려 15억 명 이상의 이용자가 즐겨 쓰고 있으며, 현재 200개 국가 및 지역에서 이용 가능합니다. 사람들이 AI 개요를 사용하면서 결과에 더 만족하고 검색 빈도도 높아지는 것을 확인하고 있습니다. 미국 및 인도와 같은 주요 시장에서 AI 개요는 해당 기능이 표시되는 쿼리 유형에서 10% 이상의 성장을 이끌고 있으며, 이러한 성장은 시간이 지남에 따라 더욱 증가하고 있습니다.
이는 지난 10년간 구글 검색에서 출시된 가장 성공적인 기능 중 하나입니다.
엔드투엔드 AI 검색 경험을 원하는 분들을 위해 구글이 완전히 새로운 AI 모드를 선보입니다. 이는 검색을 재해석한 것입니다. 더욱 향상된 추론 기능을 통해 AI 모드에 더 길고 복잡한 쿼리를 질문할 수 있습니다. 실제로 초기 테스터들은 기존 검색어보다 2~3배 긴 쿼리를 사용하고 있으며, 후속 질문을 통해 더 깊이 탐색할 수 있습니다. 이 모든 기능은 검색 내 새로운 탭에서 이용할 수 있습니다.
저도 이 기능을 많이 사용하고 있는데, 구글 검색을 사용하는 방식이 완전히 바뀌었습니다. 그리고 오늘부터 미국 내 모든 이용자에게 AI 모드가 제공된다는 소식을 전하게 되어 매우 기쁩니다. 최신 제미나이 모델을 통해 구글의 AI 답변은 여러분이 검색에서 기대하는 품질과 정확성을 갖추었으며, 업계에서 가장 빠릅니다. 그리고 이번 주부터 제미나이 2.5도 미국 내 구글 검색에 도입될 예정입니다. (→ 관련 블로그 바로가기)
가장 뛰어난 모델의 발전: 제미나이 2.5
강력하고 가장 효율적인 핵심 모델인 제미나이 2.5 플래시(Gemini 2.5 Flash)는 속도와 저렴한 비용을 선호하는 개발자들 사이에서 엄청난 인기를 끌었습니다. 그리고 새로운 2.5 플래시는 추론, 멀티모달리티, 코드, 긴 컨텍스트에 대한 주요 벤치마크에서 개선을 보이며 거의 모든 측면에서 향상되었습니다. LMArena 리더보드에서는 제미나이 2.5 프로에 이어 2위를 차지했습니다.
구글은 '딥 씽크(Deep Think)'라는 고급 추론 모드를 도입해 2.5 프로를 더욱 개선하고 있습니다. 이 모드는 병렬 사고 기법을 포함한 사고 및 추론에 대한 최신 연구 결과를 활용합니다. (→ 관련 블로그 바로가기)
더욱 개인적이고, 능동적이며, 강력해진 제미나이 앱
구글은 딥 리서치(Deep Research) 기능을 더욱 개인화하여, 이용자가 직접 자신의 파일을 업로드하고 곧 구글 드라이브 및 지메일과 연결하여 맞춤형 연구 보고서 생성 능력을 향상시킬 수 있도록 하고 있습니다. 또한 캔버스(Canvas)와 연동하여 클릭 한 번으로 다양한 언어로 동적인 인포그래픽, 퀴즈, 심지어 팟캐스트까지 제작할 수 있도록 지원합니다. 이 외에도 캔버스를 활용한 바이브 코딩(vibe coding)의 흥미로운 채택 사례들을 확인하고 있으며, 이를 통해 더 많은 사람들이 제미나이와 대화하는 것만으로도 기능적인 앱을 구축할 수 있게 되었습니다.
그리고 이용자들의 뜨거운 반응을 얻고 있는 제미나이 라이브의 경우, 카메라 및 화면 공유 기능을 iOS 이용자를 포함한 모든 이용자에 무료로 제공하며, 곧 즐겨 찾는 구글 앱과 연결하여 더욱 원활한 지원을 제공할 예정입니다. (→ 관련 블로그 바로가기)
생성형 미디어 모델의 발전
구글은 네이티브 오디오 생성을 지원하는 최신 최첨단 비디오 모델인 비오 3(Veo 3)도 소개합니다. 또한 최신이자, 가장 뛰어난 이미지 생성 모델인 이마젠 4(Imagen 4) 도 함께 선보입니다. 이 두 모델 모두 제미나이 앱에서 이용 가능하며, 이용자들에게 창의력을 위한 완전히 새로운 세상을 열어줄 것입니다. (→ 관련 블로그 바로가기)
구글은 플로우(Flow)라는 새로운 툴을 통해 영화 제작자들에게 이러한 가능성을 제공합니다. 영화 같은 클립을 만들고, 짧은 클립을 더 긴 장면으로 확장할 수 있습니다. (→ 관련 블로그 바로가기)
삶을 개선할 기회
AI가 제공하는 기회는 실로 막대합니다. 그리고 그 혜택이 가능한 한 많은 사람에게 돌아갈 수 있도록 하는 것은 이번 세대의 개발자, 기술 구축자(technology builders), 그리고 문제 해결사(problem solvers)들의 손에 달려 있습니다. 로보틱스에서 양자 컴퓨팅, 알파폴드(AlphaFold), 웨이모(Waymo)에 이르기까지, 오늘날 구글이 연구하는 것들이 미래에 마주할 현실의 토대가 될 것이라고 생각하면 특히 고무적입니다.
삶을 개선할 수 있는 이 기회를 저는 결코 당연하게 여기지 않습니다. 최근의 한 경험이 이를 절실히 느끼게 해주었습니다. 부모님과 샌프란시스코에 갔었는데, 부모님이 가장 먼저 하고 싶어 하셨던 것은 웨이모를 타는 것이었습니다. 웨이모가 그 도시 최고의 관광 상품 중 하나가 되고 있다는 것을 알게 되었습니다. 저는 이전에 웨이모를 타본 적이 있었지만, 80대이신 아버지는 매우 감탄하셨습니다. 저는 그 발전을 완전히 새로운 시각으로 보게 되었습니다.
기술이 우리에게 영감을 주고, 경이로움을 선사하며, 우리를 앞으로 나아가게 하는 놀라운 힘을 다시 한번 깨닫게 해주는 순간이었습니다. 그리고 앞으로 구글이 다음에 함께 만들어갈 놀라운 일들이 정말 기대됩니다.