メインページに戻る
Japan Blog

パブリックポリシー

コンテンツ共有サービスに対する考え方



SNS や動画共有サイトといったコンテンツ共有プラットフォームにおいて、悪用を防ぎながら、オンラインでの情報発信や情報交換、検索を可能にするための大筋の合意は形成されつつあります。一方で、各国の政府や企業、社会は、違法性や問題のあるオンラインコンテンツにどう対処すべきか、依然としてその対応を模索しています。

情報科学と人によるレビューの双方を活用し、Google は長年に渡り不誠実な情報虚偽の情報子供の搾取につながる行為など、さまざまな不正行為を迅速に特定し、防止することに取り組んできました。Google は違法コンテンツの報告に対し速やかに対応するとともに、Google の各種サービスでの利用を禁止するコンテンツを定めています。Google は、テクノロジーと人によるレビューの両輪で、不適切なコンテンツの検出やポリシーの適用、さらには安全性の継続的な向上を目指しています。今年前半には、Google における虚偽の情報に対する対策について詳細を公開したほか、YouTube ではコミュニティガイドラインやその適用状況に関するレポートを定期的に更新しています。

この問題は、誰か一人の努力で解けるものではなく、関係するすべての人の協力が不可欠です。オンライン コンテンツには、消費者保護からプライバシー保護までを網羅する多くの法律が適用されています。中でも、オンライン プラットフォームにおける「セーフハーバー」や「善きサマリア人の法」は、プラットフォームに対して、問題のあるコンテンツと対峙する上で必要な法的確実性を提供しながら、情報の自由な流れを守り、革新や経済的な成長を可能にしています。インターネットの歴史を振り返れば、多くの国々がセーフハーバーに該当する基準を設定しており、行動規範 (たとえば、EU による「オンライン上の違法ヘイトスピーチに対抗する行動規範」や、「虚偽の情報に関する行動規範」など)を策定してきました。さらに、オンライン サービスにおけるテロリスト対策で協力する共同団体「Global Internet Forum to Counter Terrorism」など、企業間の協力も進んでいます。こうした取組みは継続的に広がっています。今月はじめには、政府と主要なデジタル企業がテロリズムや過激主義のコンテンツを削除し、一連の具体的措置を講じることを約束した「クライストチャーチ・コール」に Google も参加しました。

私たちは以前にも、スマートレギュレーションを推進する立場から、プライバシー人工知能政府による監視などの分野について、Google の知見を公開してきました。最近では、違法なオンライン コンテンツの撲滅に向けた具体的な法の枠組みについても記事を公開しています。これらに基づき、国、企業、そして社会の皆さまに向けて、コンテンツ共有プラットフォームのあり方を議論する際の論点となる、いくつかのアイディアを共有したいと思います。

Clarity (明確性): コンテンツ共有プラットフォームは、ユーザーに対し基準となる行動の期待値を定めるとともに、コンテンツの削除やアカウントの一時停止または停止措置に対する明確な根拠を説明した 責任あるコンテンツ ポリシーの策定および運用を行っています。しかしながら、証拠に基づき、民主的な説明責任および国際的な人権規範の範疇で、政府が言論の合法性に対し一定の線を引くことも重要だと考えています。明確な定義が行われなければ、一方的な規制や不透明な規制が、正当な情報へのアクセスを制限する恐れがあります。

Suitability(適合性 ): モニタリングを指向したフレームワーク ( oversight framework )は、異なるサービスのそれぞれの目的や機能を認識することが重要です。ソーシャルネットワークや動画共有プラットフォームなど、幅広いユーザーとコンテンツを共有可能にすることを目的としたサービスのルールは、検索エンジン、企業向けサービス、ファイルストレージ、通信ツール、またはその他のオンラインサービスなどといったユーザーニーズや用途が根本的に異なるサービスには適合しない場合があります。同様に、異なるコンテンツに対しては、異なる対応方法が必要になる場合もあります。

Transparency ( 透明性): 意義のある透明性は、説明責任を果たしこれを強化する上で重要です。Google が最初の透明性レポートを公開したのは、今から 8 年以上前です。以来、Google は透明性に対する取組みを継続的に推進しています。意義のある透明性は、プロセスの悪用を防ぎ、ベストプラクティス、研究、革新を促します。

Flexibility (柔軟性): Google をはじめとするテクノロジー企業各社は、コンピューターサイエンスの限界に挑戦することで、問題のあるコンテンツの識別および削除の大規模な処理を実現しています。そうした技術的進歩は、静的あるいは万能薬のような法律よりも、柔軟な法的枠組みを必要としています。同様に、法的アプローチにおいては、新興企業や中小企業のさまざまなニーズや特性を認識することが肝要です。

Overall quality (全体的な品質): 現代のプラットフォームが包含する領域の広さや複雑性といった特徴に対しては、個別のイシューよりも、全体に影響する結果に注目するデータに裏打ちされたアプローチが重要です。また、すべての問題のあるコンテンツを排除することは不可能ですが、そのようなコンテンツを目立たなくするための取組みの進化に対し一定の評価を与えることも必要です。一連の複雑な目標に対する全体的な進捗状況を評価する取組みの有用な例として、EU による「オンライン上の違法ヘイトスピーチに対抗する行動規範」や「虚偽の情報に関する行動規範」を挙げることができます。

Cooperation (協力): 国際的な協調は、一般原則と慣行に従って調整されるよう努めるべきです。子どもを搾取する可能性のあるコンテンツなどについては、国際的に広く見解が一致しますが、その他の領域においては、例えば、許容される言論の統制範囲等は各国に独自の裁量が認められています。いずれの国や地域の法律も、その他の国や地域におけるコンテンツの扱いに制限を課すことはできません。

先に公表された「クライストチャーチ・コール」は、立場の異なる関係者が協力して、オンラインコンテンツの課題解決を目指すことから生まれる可能性を強く示唆しています。インターネットは情報へのアクセスを拡大し、世界中の人々に広く貢献しています。あらゆる新規の情報技術がそうであったように、社会や文化はその技術がもたらす新しい挑戦や機会を前に、新しい社会規範、制度、そして法律を発展させて来ました。私たちは、今後もこの壮大かつ重要な取組みに貢献して参ります。