[I/O 2024] 책임감 있는 AI를 실현하기 위한 구글의 지속적인 노력
이 블로그는 구글 The Keyword 블로그(영문)에서도 확인하실 수 있습니다.
구글은 대담하면서도 책임감 있는 접근 방식으로 AI의 혁신적인 힘을 활용하면 세상을 더 나은 곳으로 만들고 사람들의 삶을 개선할 수 있다고 믿습니다. 오늘날 구글의 연구과 제품은 이미 전 세계 사람들의 일상 업무에서부터 가장 야심차고, 생산적이며 창의적인 작업에 이르기까지, 세상 모든 이들에게 도움을 주고 있습니다.
구글이 AI를 책임감 있게 구축한다는 것은 AI의 위험성에 대비하는 동시에 인류와 사회를 위해 기술의 이점을 극대화하는 것을 의미합니다. 이 과정에서 구글이 세운 AI 원칙, 자체 연구, 나아가 전문가, 제품 이용자 및 파트너들의 피드백을 기반으로 합니다.
런LM으로 사회에 유용한 AI 만들기
매일 수십억 명의 사람들이 구글 제품을 이용해 학습하고 있습니다. 생성형 AI는 학습을 더욱 개인적이고 유용하며, 접근하기 쉽게 만드는 새로운 방법을 제시하고 있습니다.
오늘 구글은 제미나이를 기반으로 ‘학습’에 특화해 미세조정(fine-tuning)한 새로운 모델 제품군 런LM(LearnLM)을 공개합니다.
런LM은 연구 기반 학습 과학과 학계 이론을 제품에 접목하여 학습자 개개인에게 최적화된 맞춤형 학습 환경을 제공합니다. 특히 인지 부하 관리 및 학습자의 목표와 동기에 따른 맞춤 조정 기능을 통해 효과적인 학습 경험을 제공합니다.
런LM은 제미나이, 구글 검색, 유튜브 및 구글 클래스룸(Google Classroom)을 포함한 구글 제품 전반에 걸쳐 학습 효과를 극대화하는 다양한 기능을 지원합니다. 특히, 제미나이 앱의 새로운 학습 코치 ‘젬(Gem)’은 단순히 답변을 제공하는 것을 넘어 이용자의 이해를 돕는 단계별 학습 가이드를 제시해줄 것입니다. 이제 안드로이드 기기의 유튜브 앱에서는 학습 동영상을 시청한 후 관련 질문을 하거나, 퀴즈를 풀며 학습한 내용을 확인하는 등 더욱 능동적인 학습 경험을 제공합니다. 제미나이 모델의 탁월한 맥락 이해 능력 덕분에 이러한 유튜브 기능들은 장시간 강의나 세미나에서도 효과적으로 활용할 수 있습니다.
제미나이 러닝 코치의 UI와 유튜브에서의 UI를 보여주는 애니메이션
생성형 AI의 교육적 잠재력을 최대한 발휘하기 위해 구글은 컬럼비아 대학교 교육대학원(Columbia Teachers College), 애리조나 주립대(Arizona State University), 뉴욕대 예술학부(NYU Tisch), 칸아카데미(Khan Academy) 등 선도적인 교육 기관과 협력해 런LM 모델을 테스트하고 개선하고 있습니다. 이를 통해 런LM을 구글 제품뿐만 아니라, 더 넓은 범위로 확장하고자 합니다.(파트너십에 관심있으시면 이 링크를 통해 신청하실 수 있습니다.) 또한, 구글은 MIT의 RAISE(Responsible AI for Social Empowerment and Education)와 협력하여 교실 안팎에서 생성형 AI를 효과적으로 활용할 수 있는 도구를 교육자들에게 제공하는 온라인 과정을 개발했습니다.
긴 컨텍스트를 통한 지식 접근성 향상
구글이 지식에 대한 접근성과 이해도를 높이기 위해 만든 새로운 실험적 도구 중 하나는 일루미네이트(Illuminate)입니다. 일루미네이트는 제미나이 1.5 프로의 긴 컨텍스트 처리 기능을 활용해 복잡한 연구 논문을 짧은 오디오 대화로 변환합니다.
일루미네이트는 단 몇 분 안에 두 개의 AI 생성 음성을 사용하여 대화를 생성하고 연구 논문의 주요 인사이트에 대한 개요를 제공할 수 있습니다. 논문에 대해 더 자세히 알아보고 싶다면 후속 질문을 할 수도 있습니다. 출력되는 모든 오디오에는 신스ID(SynthID)가 워터마킹되어 있으며, 원본 논문이 참조로 걸려있어 출처 자료를 쉽고 자세하게 확인할 수 있습니다. 해당 기능은 지금 labs.google에서 바로 등록해 사용해 볼수 있습니다.
AI 모델 개선 및 오용 방지
이러한 획기적인 기술들은 구글의 사명을 새로운 방식으로 실현하는 데 도움을 주고 있지만, 동시에 생성형 AI는 여전히 아직 새로운 기술이며 기술 발전과 활용 범위 확대에 따라 위험과 문제가 발생할 수 있습니다.
따라서 구글은 AI 원칙에 따라 책임감 있는 AI 접근 방식을 취하는 것이 필수적이라고 생각합니다. 또한, 구글은 AI 원칙을 실천하면서 얻은 교훈을 정기적으로 공유하고 있습니다.
오늘은 제미나이와 같은 모델을 개선하고 오용을 방지하는 몇 가지 새로운 방안을 공유하고자 합니다.
1. AI 기반 레드팀 활동과 전문가 피드백. 구글은 최첨단 연구와 전문 지식을 결합하여 AI 모델을 지속적으로 개선하고 있습니다. 특히 올해는 자체 시스템의 취약점을 선제적으로 파악하고 이를 보완하기 위해 ‘AI 기반 레드팀(AI-Assisted Red Teaming)’이라는 새로운 기술을 도입했습니다. 이는 구글 딥마인드의 알파고와 같은 획기적인 게임 기술을 활용하여 AI 에이전트 간 서로 경쟁을 통해 레드팀 기능을 강화하는 방식입니다. 이를 통해 적대적 프롬프트에 대한 대응력을 높이고 문제 발생 가능성을 줄이는 데 기여하고 있습니다. 또한, 수천 명의 내부 안전 전문가뿐 아니라 학계부터 시민 사회에 이르기까지 다양한 외부 전문가의 의견을 수렴하여 모델의 안전성과 신뢰성을 높이는 데 힘쓰고 있습니다.
2. 텍스트 및 동영상용 신스ID(SynthID). AI 모델 결과물이 점점 더 정교해지면서, 이러한 콘텐츠의 악용 가능성 또한 커지고 있습니다. 이에 대응하여 구글은 지난해 AI로 생성한 이미지와 오디오에 눈에 띄지 않는 워터마크를 삽입하는 ‘신스ID’ 기술을 도입했습니다.
더 나아가 이제 구글은 텍스트와 동영상이라는 두 가지 새로운 모달리티에 신스ID를 확대해 적용합니다. 이는 이용자들이 디지털 콘텐츠의 출처를 이해할 수 있게 돕기 위한 구글의 광범위한 투자의 일환입니다.
3. 세이프가드를 위한 협력. 구글은 업계 내 생태계와 협력해 다른 이들이 구글이 만들어낸 성과의 혜택을 누리는 동시에, 이를 더 발전시킬 수 있도록 최선을 다하고 있습니다. 앞으로 몇 달 안에, 업데이트된 ‘책임감있는 생성형 AI 툴킷(Responsible Generative AI Toolkit)’을 통해 ‘신스ID(SynthID)’ 텍스트 워터마킹 기술을 오픈 소스로 공개할 예정입니다. 또한 구글은 C2PA(Coalition for Content Provenance and Authenticity)의 회원으로서 어도비(Adobe), 마이크로소프트(Microsoft), 스타트업 및 기타 여러 기업과 협력해 디지털 미디어의 투명성을 개선하는 표준을 구축하고 구현하고 있습니다.
현실 문제 해결에 기여
오늘날 구글 AI 기술의 발전은 이미 사람들이 현실 세계의 문제를 해결하고 과학적 혁신을 이루는 데 도움을 주고 있습니다. 지난 몇 주 동안 구글은 세 가지 흥미로운 과학적 이정표를 발표했습니다:
- 구글 리서치(Google Research)는 하버드 대학교와 협력해 인간 대뇌 피질의 시냅스 해상도 3D 이미지 재구성을 발표했습니다. 이는 뇌의 작동 방식에 대한 우리의 이해를 바꿀 수 있는 큰 기술적 진전입니다.
- 새롭게 발표된 알파폴드 3은 단백질뿐만 아니라 DNA, RNA, 리간드(ligand)의 구조 및 상호 작용을 예측할 수 있어 생물학적 세계와 신약 발견에 대한 이해를 변화시키는 데 도움이 될 것입니다.
- 또한 구글은 제미나이 모델의 고급 추론, 멀티 모달 이해 및 긴 컨텍스트 처리 기능을 기반으로 하는 연구 모델 제품군인 ‘메드 제미나이(Med-Gemini)’를 소개했습니다. 이 모델은 보고서 생성과 같은 관리 작업을 지원하고, 다양한 유형의 의료 데이터를 분석하며, 위험 예측에 도움을 줄 수 있습니다.
이러한 새로운 기능들은 기존의 홍수 예측, UN 데이터 공유 플랫폼(UN Data Commons for the SDGs) 등의 프로젝트에 더해 사회적 유익을 가져다 주는 성과입니다. 실제로 구글은 최근 AI가 전 세계의 지속 가능한 발전 목표 달성을 어떻게 앞당길 수 있는지 방법을 조명하는 보고서를 발표한 바 있습니다. 그러나 이는 단지 시작에 불과합니다. 구글은 앞으로 펼쳐질 미래와 함께 협력하여 이뤄낼 성과에 대한 기대감으로 가득 차 있습니다.