진보된 기술 환경에서 웹 콘텐츠의 선택과 제어를 위한 더 나은 기본 원칙
이 블로그는 구글 The Keyword 블로그(영문)에서도 확인하실 수 있습니다.
지난 5월에 열린 구글 I/O에서 구글은 수년간의 연구를 바탕으로 새로운 인공지능(AI) 기반의 제품과 실험들을 발표했습니다. 또한, 구글의 AI 원칙과 고객 개인정보 보호를 위한 약속을 기반으로, 사회에 긍정적인 혜택을 극대화하는 동시에 당면 과제를 해결하며 책임감 있는 AI를 개발하기 위한 구글의 노력에 대해서도 말씀드렸습니다.
구글은 역동적인 콘텐츠 생태계를 통해 모두가 혜택을 누릴 수 있다고 믿고 있으며, 그 핵심은 웹 퍼블리셔가 콘텐츠에 대한 선택권과 통제권을 가지고 웹 생태계에 참여함으로써 가치를 창출할 수 있는 기회를 만들어 내는 것입니다. 또한, 구글은 기존의 웹 퍼블리셔 제어 기능이 새로운 AI 및 활용 사례 이전에 개발되었음을 잘 알고 있습니다.
새로운 기술의 등장은 웹 커뮤니티가 웹의 발전을 지원하는 표준과 프로토콜을 개발할 수 있는 기회를 제공해 왔습니다. 커뮤니티에서 약 30년 전 개발한 웹 표준 중 하나인 robots.txt는 검색 엔진이 콘텐츠를 크롤링하는 방식을 웹 퍼블리셔가 간단하고 투명하게 제어할 수 있도록 지원하는 방법으로 입증된 바 있습니다. 이제 웹과 AI 커뮤니티가 새로운 AI 및 활용 사례를 위해 웹 퍼블리셔의 선택과 제어를 개선할 수 있으며 기계장치가 판독 가능한 새로운 수단을 모색해야 할 때라고 생각합니다.
구글은 오늘 웹 및 AI 커뮤니티의 구성원들과 함께 상호 보완적인 프로토콜에 대한 접근 방식에 대해 의견을 나누는 공개적인 토론을 시작하고자 합니다. 전 세계 웹 퍼블리셔, 시민 사회, 학계 등 다양한 분야의 폭넓은 의견을 수렴할 계획이며 앞으로 몇 달에 걸쳐 관심 있는 이용자들을 모집할 예정입니다.
웹 및 AI 커뮤니티 토론에 참여를 원하신다면, 이 웹사이트에서 신청해 주세요. 보다 자세한 정보는 조만간 제공될 예정입니다.