責任ある AI の進歩に向けた政策指針:機会、責任、セキュリティ
Google I/O でご紹介したように、AI の成長は人類がこれまで見てきた中で最も大きなテクノロジーの変化です。今日の AI モデルの進歩は、情報と関わり、適切な言葉を選び、新しい場所を発見するための新しい方法を生み出すだけでなく、人々が科学や技術の新境地を開拓するためにも役立っています。
AI により、数十億の人々の生活を大きく改善し、企業の成長を支援し、困難な課題の答えを見つけて社会を支援する方法を再考できる新しい時代に私たちは向かっています。それと同時に、私たちは AI にはリスクと課題が伴うということをしっかりと認識しなければなりません。
このような背景から、Google は大胆でありつつも責任ある AI への取り組みを進めています。
技術進歩を止める呼びかけが効果を生む可能性は低く、結果として AI がもたらす大きな利点を逃し、AI の可能性を受け入れる人々に後れを取るリスクが生じます。代わりに必要となるのは、リスクを軽減しながら技術的な革新を社会全体への貢献につなげるために、政府、企業、大学などで包括的に取り組みむことです。
数週間前、責任ある AI の進歩に向けた共同指針の必要性について概説した際、AI の適切な活用には、個人による慣行、共通の業界基準、健全な政府の政策が不可欠だとお伝えしました。本日、AI に関する政策への推奨項目を記載したホワイトペーパー (英文)を公開します。この中で、機会の解放、責任の促進、セキュリティの強化という 3 つの主要分野に政府が注力することを奨励しています。
1) AI の経済的可能性の最大化による機会の解放
AI を適切に取り入れた経済は大きな成長を遂げ、導入が遅い競争相手を勝るでしょう。AI は、さまざまな業界でより複雑で価値のある製品やサービスの生産を支援し、人口問題の影響下においても生産性の向上に役立ちます。また、AIを搭載した製品やサービスを活用することで、中小企業のイノベーションと成長を支援するとともに、就業者は習慣化されていない、よりやりがいのある業務に集中できるようになります。
正しい活用に必要なこと: AI が実現する経済的機会を解放し、労働力の混乱を最小限に抑えるために、政策立案者はイノベーションと競争力に投資、責任ある AI イノベーションを支援する法的枠組みを促進、そして、AI 主導の業務への転換に向けて労働力を準備する必要があります。たとえば、政府は国立研究所や研究機関を通じて基礎的な AI 研究を検討し、責任ある AI 開発をサポートする政策(個人情報を保護し、国境を越えた信頼できるデータ フローを可能にするプライバシー法を含む)を採用し、継続的な教育、スキルアップ プログラム、および進化する仕事の未来に関する研究を推進する必要があります。
2) 責任を持った活用と悪用リスクの軽減
AI は、医療や気候変動などの課題においてすでに活用されており、進歩に向けた強い力になる可能性があります。しかしながら、責任を持った開発および導入が行われない場合、AI システムが誤情報や差別、ツールの不正利用などといった現在の社会問題を増幅させてしまう可能性もあります。そして、AI システムに対する信頼と信用の欠如は、企業や消費者による AI 導入の躊躇や、AI の利点を享受する機会の制限につながります。
正しい活用に必要なこと: これらの課題に取り組むためには、ガバナンスに対する複数の関係者のアプローチを採用することが必要です。関係者は、インターネットの経験から学び、潜在的な利点と課題の両方をしっかりと把握して取り組むでしょう。ある課題に対処するためには、AI の利点と課題をより深く理解し、それらを管理する方法について研究する必要があります。また、解釈可能性(interpretability)や透かし入れ(watermaking)などの分野で新しい技術的革新を開発・展開する必要があります。別の課題としては、AI 技術が責任を持って開発、展開されるように、共通の業界標準やベストプラクティスの共有、そして比例的、リスクに基づく規制が作られる必要があります。また、グローバルインターネットフォーラム対テロ対策(GIFCT: Global Internet Forum to Counter Terrorism)などの過去の例を参考に、主要企業が集まって Global Forum on AI などの、新しい組織や機関が必要になる場合もあります。国際的な調整も、民主的価値を反映し、断片化を避ける共通の政策アプローチを開発するために不可欠です。
3) 悪意のある攻撃者によるテクノロジー悪用の防止と、グローバルなセキュリティの強化
AI は世界の安全保障と安全に重要な影響を及ぼします。ジェネレーティブ AI は、誤情報や偽情報、操作された情報を生み出すこと(そして、特定・追跡することも)ができます。AI を搭載したセキュリティ研究は、高度なセキュリティ運用と脅威インテリジェンスを通じて新世代のサイバー防御を推進することができる一方で、AI 生成の悪用は、敵対者によるより高度なサイバー攻撃をもたらす可能性があります。
正しい活用に必要なこと: まず初めに、AI の潜在的な利点を最大化しながら、悪意のある利用を防ぐために技術的と商業的な防御策を導入し、協力して悪意のある敵対者に対処することです。例えば、政府は、安全保障のリスクとなる AI を搭載したソフトウェアによる特定のアプリの輸出制限や悪用する可能性のある団体による AI 研究開発の制限など、次世代の貿易政策を検討する必要があります。政府、研究機関、一般社会、企業も、強力になる AI システムの影響と、洗練され複雑になる AI を人間の価値観とどのように調和させることができるかについて、より理解を深める必要があります。最終的に、セキュリティは様々な関係者が共同で取り組む必要があり、セキュリティ分野における進歩には、共同研究、最高水準のデータ ガバナンスの採用、AI セキュリティの脆弱性に関する情報共有に向けた官民フォーラムなどの協力が必要です。
まとめ
私たちは、潜在的な課題を十分に認識した上で、機会、責任、セキュリティを中心とした政策指針により、AI の利点を最大化し、すべての人が享受できると確信しています。
以前にも述べたように、AI は適切な規制をしないわけにはいかない重要な分野です。シンガポールの AI Verify フレームワーク、AI 規制に対する英国のイノベーション推進アプローチ、アメリカ国立標準技術研究所の AI リスク管理フレームワークなど、世界中の政府が新しい技術に適切な政策枠組みに真剣に取り組んでいます。Google は、今後もそうした取り組みの支援を継続していきます。