이미지에서 동영상까지 AI가 시각 콘텐츠의 검색을 지원하는 방법
이 블로그는 구글 The Keyword 블로그(영문)에서도 확인하실 수 있습니다.
구글 제품의 궁극적인 목표는 모든 순간에 사람들을 최대한 돕는 것입니다. 그리고 구글은 인공지능(AI) 기술을 통해 구글의 목표를 더 효율적으로 달성할 수 있다고 믿어왔습니다.
구글 검색(Google Search) 초기부터 AI는 언어에 대한 이해를 도와 검색 결과의 유용성을 높여주었습니다. 수년에 걸쳐 구글은 AI에 대한 투자를 지속적으로 늘려왔으며 이제 AI는 언어에서 이미지, 비디오 그리고 실제 세계의 해석에 이르기까지 다양한 형태의 정보를 해석할 수 있게 되었습니다.
구글은 더욱 자연스럽고 직관적으로 정보를 탐색할 수 있도록 도와주는, AI에 적용된 새로운 기술 몇 가지를 소개하고자 합니다.
보이는 모든 것을 검색할 수 있는 기능
카메라는 주변 세상을 탐색하고 정보를 수집할 수 있는 강력한 도구가 되었습니다. 실제로 사람들은 보이는 것들을 카메라나 이미지를 사용하여 검색하고 있으며, 구글 렌즈(Google Lens)는 현재 월 100억 회 이상 사용되고 있습니다.
구글은 구글 렌즈를 통해 이용자들을 한 번에 전 세계 시각 정보 및 자료들과 연결하고자 합니다. 현재 구글 렌즈를 이용해 검색창에서 바로 카메라나 사진첩의 이미지를 검색할 수 있는데요. 여기에 더해, 모바일 화면에 있는 내용을 검색할 수 있는 주요 업데이트 기능을 소개해 드립니다.
향후 수 개월 내로 구글 렌즈를 사용하여 전 세계 안드로이드 기기에서 '내 화면 검색(Search Your Screen)’ 기능을 이용할 수 있게 됩니다. 해당 기술을 사용하면 앱과 현재 작업을 종료하지 않고도 메시지 및 비디오 앱과 같이 익숙하고 자주 사용하는 웹사이트와 앱에서 사진이나 비디오에 표시된 내용을 검색할 수 있습니다.
예를 들어, 프랑스에 여행간 친구가 파리를 둘러보는 동영상을 메시지로 보내왔다고 상상해 볼까요? 이때, 동영상 속 랜드마크에 대해 자세히 알아보려면 구글 어시스턴트(Google Assistant)를 호출하는 것처럼 안드로이드 휴대폰의 전원 또는 홈 버튼을 길게 누른 다음(Long-Press), '화면 검색'(Search screen)을 선택하면 됩니다. 그럼, 구글 렌즈는 동영상 속 배경을 뤽상부르궁이라고 확인해 알려줄 수 있고, 이용자들은 이를 클릭하여 자세히 알아볼 수 있습니다.
다양한 방법으로 검색 기능 활용
멀티서치(multisearch)를 사용하면 사진과 텍스트로 동시에 검색할 수 있어, 스스로를 표현할 수 있는 완전히 새로운 방법이 열리게 됩니다. 현재 멀티서치는 전 세계적으로 구글 렌즈를 사용할 수 있는 국가에서 모든 언어를 사용해 모바일로 이용할 수 있습니다.
최근에는 로컬 검색 기능을 추가하여 멀티서치를 더욱 강화했습니다. 주변의 상점을 이용하려는 경우, 급히 무언가를 찾아야 하는 상황에도 사진을 찍고 ‘내 주변(near me)’이라는 텍스트를 추가하여 필요한 것을 찾을 수 있습니다. 이 기능은 현재 미국에서 영어로 제공되지만, 앞으로 수 개월 내로 전 세계로 확대 제공될 예정입니다.
때로는 눈길을 끌고 호기심을 자극하는 무언가를 보자마자, 이미 나도 모르게 검색을 하고 있을 때가 있죠. 이를 위해 향후 수 개월 내에 전 세계적으로 모바일 기기 내 검색 결과 페이지에 표시되는 모든 이미지에 대해 멀티서치를 사용할 수 있게 될 것입니다.
예를 들어, '현대적인 거실 아이디어'를 검색하고 마음에 드는 커피 테이블을 찾았지만 다른 모양(예: 원형이 아닌 직사각형)을 선호할 수 있습니다. 이런 경우 멀티서치를 사용하여 '직사각형'이라는 텍스트를 추가하여 원하는 스타일을 찾을 수 있습니다.
구글은 검색 경험을 보다 자연스럽고 시각적인 방식으로 개선하고 있습니다. 이제 막 시작 단계를 넘어섰지만 AI를 활용한다면, 미래의 가능성은 무궁무진할 것입니다.