메인 메뉴 바로가기
구글코리아 블로그

AI

구글의 최첨단 오픈 모델 ‘젬마(Gemma)’를 공개합니다

gemma 블로그 히어로 이미지

구글은 모두에게 유용한 인공지능(AI)을 만들 수 있다고 생각합니다. 이의 일환으로 오랫동안 구글은 오픈 커뮤니티에 Transformers, TensorFlow, BERT, T5, JAX, AlphaFold, and AlphaCode와 같은 혁신 기술들을 공유해 왔습니다. 그리고 오늘 구글은 다시 한번 책임감 있게 AI를 이용하는 개발자와 연구진들을 지원하기 위해 새로운 세대의 오픈 모델을 공개합니다.

오픈 모델 젬마

젬마(Gemma)는 제미나이 개발의 핵심 기술과 연구를 기반으로 제작된 최첨단 경량 오픈 모델군입니다. 구글 딥마인드와 구글의 다양한 부서가 협력하여 개발한 젬마는 제미나이를 비롯하여 ‘보석’을 뜻하는 라틴어 ‘gemma’에서 영감을 받은 이름입니다. 또한, 다양한 모델 규모와 함께 개발자들의 혁신을 지원하고, 협업을 촉진하며 젬마 모델을 더욱 책임감있게 사용할 수 있는 툴도 함께 공개됩니다.

젬마는 오늘부터 전 세계에서 이용가능하며, 주요 특징은 다음과 같습니다.

  • 이번에 공개되는 모델은 젬마 2B와 젬마 7B 두 가지로 제공됩니다. 두 유형 모두 각각 사전 훈련(pre-trained) 및 지시 조정(instruction-tuned)된 변형(variants)과 함께 제공됩니다.
  • 새로운 책임감 있는 생성형 AI 툴킷(Responsible Generative AI Toolkit)은 젬마를 활용하여 더욱 안전한 AI 애플리케이션을 제작할 수 있도록 가이드와 필수 도구를 제공합니다.
  • 네이티브 케라스(Keras) 3.0을 통해 JAX, PyTorch, TensorFlow와 같은 주요 프레임워크에서 추론 및 지도 학습(supervised fine-tuning,SFT)을 위한 툴체인을 제공합니다.
  • 바로 이용할 수 있는 코랩(Colab)과 캐글 노트북(Kaggle notebooks)과 함께 허깅 페이스(Hugging Face), 맥스텍스트(MaxText), 엔비디아 네모(NVIDIA NeMo)와 같은 범용적인 툴들과 함께 통합 제공되어 이용자들이 젬마를 쉽게 이용할 수 있습니다.
  • 사전 훈련 및 지시 조정된 젬마 모델은 노트북, 업무용 컴퓨터 또는 구글 클라우드에서도 이용 가능하며 버텍스 AI(Vertex AI), 구글 쿠버네티스 엔진(Google Kubernetes Engine, GKE)을 이용해 쉽게 설치할 수 있습니다.
  • 다양한 AI 하드웨어 플랫폼 전반을 아우르며 최적화되어 있는 젬마는 엔비디아 GPU와 구글 클라우드 TPU 등을 포함해 업계를 선도하는 성능을 보장합니다.
  • 이용 약관을 통해 모든 규모의 기업에 책임 있는 상업적 사용 및 배포를 허용합니다.

다양한 규모로 제공되는 최신 성능

젬마 모델군은 구글의 가장 유용하고 규모가 큰 AI 모델인 제미나이의 기술 및 인프라를 기반으로 구축되었습니다. 이를 통해 젬마 2B 모델과 젬마 7B 모델은 동급 규모의 다른 오픈 모델들과 비교했을 때 최고 성능을 보여주고 있습니다. 또한, 젬마 모델군은 개발자의 노트북이나 데스크톱 컴퓨터에서 바로 실행될 수 있습니다. 특히, 안전하고 책임감 있는 결과를 위한 구글의 엄격한 기준을 준수하면서도, 젬마는 주요 벤치마크에서 더 큰 규모의 모델보다 더 뛰어난 성능을 보여주었습니다. 성능, 데이터셋 구성, 모델링 방법론 등에 관한 더욱 자세한 내용은 기술보고서를 확인해 보세요.

일반 벤치마크에서 젬마의 성능과 라마-2(Llama-2) 7B 및 13B 모델의 성능을 비교해 보여주는 차트

설계부터 책임감 있게

젬마는 구글의 AI 원칙을 최우선으로 설계되었습니다. 젬마를 더욱 안전하고 신뢰할 수 있는 사전 학습 모델로 만들기 위한 노력의 일환으로, 구글은 특정 개인 정보 및 기타 민감 한 데이터를 학습 세트에서 자동으로 필터링하는 기술들을 적용하였습니다.

또한, 지시 조정 모델들이 책임감 있는 행동을 실천할 수 있도록 광범위한 미세 조정을 거치고 인간의 피드백을 기반으로 한 강화 학습(RLHF)을 활용했습니다. 젬마 모델의 위험성을 이해하고 방지하기 위해, 구글은 직접 레드팀을 구성하여 평가하고, 자동화된 적대적 테스트, 위험 행동에 대한 모델 역량 평가 등 다양하고 엄격한 평가를 진행하였습니다. 이렇게 실시된 평가들은 모델 카드에 정리되어 있습니다.*

구글은 또한 새롭게 책임감 있는 생성형 AI 툴킷을 젬마와 함께 공개해 개발자들과 연구진들이 더욱 안전하고 책임감 있는 AI 애플리케이션을 개발할 수 있도록 돕고자 합니다. 해당 툴킷에는 다음과 같은 기능들이 포함되어 있습니다:

  • 안전성 분류 기준 제공: 최소한의 사례로도 엄격한 안전성 분류 기준(classifiers)을 구축할 수 있도록 새로운 방법론을 제공합니다.
  • 디버깅 지원: 모델 디버깅 툴은 이용자가 젬마의 행동을 더욱 잘 이해하고 잠재적인 문제도 해결할 수 있도록 지원합니다.
  • 가이던스 제공: 대규모 언어 모델(LLM)을 개발하고 배포해온 구글의 경험을 바탕으로 모델 구축을 위한 모범 사례를 확인할 수 있습니다.

프레임워크, 툴, 하드웨어 전반에 최적화

요약하기 또는 검색 증강 생성(RAG)과 같은 특정 애플리케이션의 필요에 맞게 자체 데이터에서 젬마 모델을 미세 조정할 수 있습니다. 젬마는 다음과 같은 다양한 툴과 시스템을 지원합니다.

  • 멀티 프레임워크 툴: 멀티 프레임워크 Keras 3.0, 네이티브 Pytorch, JAX 및 허깅 페이스 트랜스포머(Hugging Face Transformers)에서 추론 및 미세 조정을 위한 참조 구현을 통해 선호하는 프레임워크를 가져올 수 있습니다.
  • 디바이스 간 호환성: 젬마 모델은 노트북, 데스크탑, 사물인터넷(IoT), 모바일 및 클라우드를 포함한 범용적인 다양한 디바이스 유형에서 실행되어 이용자는 폭넓게 AI 기능에 액세스 할 수 있습니다.
  • 최첨단 하드웨어 플랫폼: 구글은 엔비디아(NVIDIA)와 협력하여 엔비디아 GPU에 맞게 젬마 모델을 최적화하여 업계 최고의 성능과 최첨단 기술을 포함한 통합 기능을 보장합니다.
  • 구글 클라우드에 최적화: 버텍스 AI는 내장된 추론 최적화 기능을 사용해 다양한 튜닝 옵션과 원클릭 구축 등 광범위한 MLOps 툴셋을 제공합니다. 고급 맞춤화 기능은 완전 관리형의 버텍스 AI 툴 또는 자체 관리형 GKE을 통해 이용가능하며, 어느 플랫폼에서든 GPU, TPU, CPU 전반에 걸쳐 비용 효율적인 인프라 내에 구현할 수도 있습니다.

연구 및 개발을 위한 무료 크레딧 제공

젬마는 AI 혁신을 이끌어가고 있는 개발자 및 연구진들의 오픈 커뮤니티를 위해 탄생했습니다. 오늘부터 캐글(Kaggle)내 무료 이용권, 코랩(Colab) 노트북의 무료 티어, 구글 클라우드 첫 이용자를 위한 미화 300달러 상당의 크레딧을 이용해 젬마를 활용할 수 있습니다. 연구진 역시 프로젝트를 위해 최대 미화 50만 달러를 제공하는 구글 클라우드 크레딧을 신청할 수 있습니다.

시작해 보세요

공식 홈페이지(ai.google.dev/gemma)에서 젬마에 대해 자세히 알아보고 보다 신속하게 이용 정보를 확인할 수 있습니다.

구글은 향후 젬마 모델 제품군을 지속적으로 확장하면서 다양한 적용 사례를위한 새로운 변형을 소개할 수 있기를 기대합니다. 향후 몇 주 동안 젬마를 더 알아보고 이용할 수 있는 많은 이벤트와 기회를 기대해 주세요.

*구글은 공정한 평가를 위해 엄격한 데이터 필터링을 실시하고 있습니다. 구글의 모델들은 훈련 세트에서 벤치마크 데이터를 제외하여 벤치마크 비교군의 무결성을 보장합니다.