안전한 생성형 AI 사용을 위한 구글의 책임감 있는 접근 방식
이 블로그는 구글 The Keyword 블로그(영문)에서도 확인하실 수 있습니다.
구글은 더욱 유용한 제품을 만들기 위해 20년 이상 머신러닝(ML) 및 인공지능(AI)을 활용해 왔습니다. AI는 지메일(Gmail)의 스마트 편지쓰기(Smart Compose) 기능부터 구글 지도에서 집으로 가는 더 빠른 경로 찾기에 이르기까지 일상 생활에서 이용자들에게 많은 도움을 주고 있습니다. 또한, 의학기술을 더욱 발전시키고 기후변화에 대처하는 효과적인 방법을 모색하는 등 인류가 직면한 문제를 해결하는 데에도 AI가 활용되어 왔습니다. 그리고 최근 구글 제품에 생성형 AI를 도입하면서 구글은 AI를 대담하게 개발하면서도 책임감 있게 사용하는 것이 필수라는 점을 잘 이해하고 있습니다.
처음부터 제품에 내장된 보안 기능
AI 기술의 책임감 있는 도입에 있어 중요한 부분은 안전 및 보안 위험을 광범위하게 예측하고 테스트해야 한다는 것입니다. 여기에는 AI가 생성한 이미지로 야기되는 위험을 예로 들 수 있습니다. 구글은 AI 원칙을 기반으로 생성형 AI 기능에 보호 수단을 기본 옵션으로 내장하고 있습니다.
- 불공정한 편견으로부터 이용자 보호: 구글은 머신러닝 모델에서 불공정한 편견을 식별하고 제거하는 데 유용한 툴과 데이터셋을 개발했습니다. 구글은 불공정한 편견에 관하여 활발한 연구를 이어 왔으며, 지난 수 년간 해당 주제에 대한 몇 가지 중요 논문을 발표했습니다. 또한 구글은 정기적으로 제3자의 의견을 구하며 사회적 상황과 분위기를 파악하고 불공정한 편견의 잠재적 원인에 대한 AI 학습 데이터셋도 평가하고 있습니다.
- 레드팀 구성: 구글은 레드팀 프로그램에 참여할 내외부 전문가를 모집하여 사이버 보안의 취약성, 공정성과 같이 보다 복잡한 사회적 위험 등 광범위한 취약점과 남용 가능성이 있는 영역을 테스트하고 있습니다. 지난 8월 열린 데프콘 AI 빌리지 레드팀(DEF CON AI Village Red Team) 행사 참여를 비롯하여, 구글은 적대적 테스트를 적극적으로 실시함으로써 현재 및 긴급 위험 상황, 행동 및 정책 위반 사항을 파악하고 위험 요소를 사전에 완화시킬 수 있습니다.
- AI 정책 구현: 구글은 정책 개발 및 기술 적용에 대해 그동안 쌓아온 오랜 경험을 활용하여 생성형 AI 사용 제한 정책을 만들어 허용되지 않는 유해하거나 부적절한 콘텐츠, 오해의 소지가 있거나 불법적인 콘텐츠를 기술하고 있습니다. 그리고 광범위한 분류 시스템을 사용하여 이러한 정책을 위반하는 콘텐츠를 탐지, 예방 및 제거하고 있습니다. 예를 들어, 정책을 위반하는 질문이나 답변을 탐지한 경우 구글 제품은 해당 답변을 제공하지 않으며, 위험한 행위나 자해 등과 관련된 민감한 주제에 대해 묻는 이용자에게 도움을 받을 수 있는 추가 리소스를 안내하기도 합니다. 또한 구글은 지속적으로 모델을 미세 조정(fine-tune)하여 보다 안전한 답변을 제공하고 있습니다.
- 청소년 보호: 구글은 십대 청소년에게 SGE와 같은 생성형 AI 경험을 천천히 제공해 나가고 있습니다. 그리고 AI로 인해 위험에 노출될 수 있는 영역으로부터 각 성장단계별 청소년들을 보호하기 위해 추가 안전 장치를 개발했습니다. 여기에는 괴롭힘, 연령 제한, 불법 약물과 같은 주제와 관련된 답변을 제한하는 일 등이 포함됩니다.
- 고객에 대한 저작권 보장: 구글은 생성형 AI 모델에 사용되는 학습 데이터와 생성된 결과물 모두에 대해 강력한 면책 보호 장치를 마련하여 주요 구글 워크스페이스 및 구글 클라우드 서비스 이용자들에게 제공하고 있습니다. 간단히 말해, 고객이 저작권을 이유로 이의를 제기하는 경우 구글은 이와 관련된 잠재적인 법적 위험에 대해 책임을 집니다.
생성형 AI의 결과물에 대한 추가 정보 제공
구글은 사람들이 온라인상에서 찾고 있는 정보에 관한 맥락을 제공하는 것에서 더 나아가, 이제 구글의 모델에서 생성된 정보를 평가할 수 있도록 새로운 툴을 제공하고 있습니다. 예를 들어 구글 검색 내 생성형 AI와 관련해 검색결과에 관한 정보(About this result) 기능을 추가하여 사람들이 구글 검색에서 찾은 정보를 평가하도록 도왔습니다. 또한 사람들이 바드(Bard)가 제공하는 답변을 다시 확인해 볼 수 있는 새로운 방법도 도입했습니다.
AI로 생성된 이미지는 해당 이미지에 관한 맥락 정보가 특히 중요하기 때문에, 구글은 제품을 통해 생성된 모든 이미지에 메타데이터 레이블을 지정하고 SynthID로 워터마크를 삽입하는 방법을 찾고자 노력하고 있습니다. 마찬가지로, 구글은 선거 광고 정책을 업데이트하여 최근의 선거 광고에 디지털 방식으로 변경되거나 생성된 자료가 포함된 경우 광고주가 이를 공개하도록 요구하는 조항을 추가하였습니다. 이에 따라 구글 플랫폼에서 선거 광고를 보는 사람들에게 참고할 수 있는 추가적인 정보를 제공할 수 있게 되었습니다.
구글은 새롭게 떠오르고 있는 기술들, 대규모 언어 모델(LLM) 기반 경험들이 때로는 잘못된 결과를 초래할 수 있다는 점을 알고 있기에 바드 및 SGE와 같은 서비스를 실험버전으로 출시했습니다. 구글은 더 많은 정보들이 생길 때마다 제품들을 지속적으로 업데이트 할 수 있도록 노력하고 있으며 구글의 모든 팀은 필요 시 빠르게 서비스를 개선하고 있습니다.
이용자의 정보를 보호하는 방법
새로운 기술이 등장하면 이용자 개인정보 보호 및 개인 데이터에 대한 우려가 자연스럽게 제기됩니다. 구글은 설계단계부터 개인정보를 보호하는 AI 제품과 경험들을 구축하고 있습니다. 지난 수년 동안 구글이 시행해 온 많은 개인정보 보호 수단은 생성형 AI 툴에도 적용됩니다. 또한, 구글 계정의 다른 유형의 활동 데이터와 마찬가지로 바드, 검색 등에 대해서도 이용자는 언제든지 쉽게 데이터 사용을 일시 중지하거나 데이터를 저장 또는 삭제할 수 있습니다.
구글은 광고 목적을 비롯하여 누구에게도 이용자의 개인정보를 판매하지 않으며, 이는 구글의 오랜 정책입니다. 또한 구글은 생성형 AI 제품에 맞는 개인정보 안전 장치를 구현했습니다. 예를 들어 바드에서 워크스페이스 확장 프로그램을 사용하기로 선택한 경우 검토 담당자가 이용자의 지메일, 문서(Docs) 및 드라이브(Drive)의 콘텐츠를 볼 수 없으며, 해당 콘텐츠가 바드에서 광고를 표시하는 데 사용되거나 바드 모델을 학습시키는 데에도 사용되지 않습니다.
협력을 통한 미래 구현
AI는 구글과 같은 특정 기업이 개별적으로 혼자 해결할 수 없는 복잡한 문제들을 유발합니다. 따라서 AI를 올바르게 구현하려면 기업, 학계 연구원, 시민 사회, 정부 및 기타 이해관계자 간의 협력이 필요합니다. 구글은 이미 Partnership on AI, ML Commons 등의 그룹과 논의하고 있으며, 다른 주요 AI 연구소와 함께 Frontier Model Forum을 시작하여 선구적인 AI 모델의 책임 있는 개발을 촉진하고 있습니다. 또한 구글은 수십 개의 연구 논문을 발표하여 구글의 전문 지식을 연구자 및 업계와 공유하고 있습니다.
또한 구글은 올해 초 백악관 회담에서 다른 기업들과 함께 자발적으로 약속한 원칙을 비롯하여 이러한 노력들의 진행 상황을 투명하게 공개했습니다. 구글은 업계 전반에 걸쳐 정부, 연구원, 그리고 관계자들과 지속적으로 협력하면서 AI 기반의 떠오르는 기회를 포착하되 동시에 그로 인한 위험도 함께 해결해 나갈 것입니다.