メインページに戻る
Japan Blog

責任ある AI 開発: 基本理念を実践に



私たちは、日々、AI の活用が世界中の人々を支援し、生活の向上につながる多数の変化をもたらしていることを目の当たりにしています。たとえば、放射線科医による肺がんの検出サポートや、インドの農村における識字率向上アプリ絶滅危惧種の保護活動、さらには洪水を予測する取組みや、地震の余震を予測する研究では、AI が自然災害の軽減に寄与するとともに、人命の救助にも役立てられています。

AI の活用で、これまで不可能だと思われていた事が可能になるとともに、AI をめぐる公平性やプライバシーについても議論が交わされています。このような対話は国際社会全体の関与が必要であり、非常に重要なものです。そこで今日は、昨年発表した Google の研究及び製品開発における AI の倫理的な利用を定めた「AI の基本方針」について、最新情報をご案内します。

社内教育

AI に関連する重要な問題を理解し、責任ある AI の活用を実践するためにはどうすれば良いか社員が深く考えることができるように、Google は社員の教育に注力しています。この 1 年、数千人の社員が機械学習の公平性(Fairness)について学ぶ研修に参加したほか、倫理研修を 4 か所の Google オフィスで試験的に実施、AI 倫理に関して社外の知識人を招いた研修会も世界 3 大陸で実施しました。

ツールと研究

昨年一年間、Google は知見の共有、技術的なツールや製品の開発に加え、すべての人に役立ち、責任ある、そして倫理的な AI 開発フレームワークの構築に重点を置いてきました。たとえば、機械学習の公平性説明可能性プライバシーセキュリティといった責任ある AI に関連する 75 以上の研究論文を発表した他、12 の新しいツールを開発・公開しています。以下はその一例です。

  • What-If Tool は、コードの記述なしで ML モデルの分析を可能にする新しい機能です。バイアスやさまざまな公平性を制約する要素の影響を可視化し、複数のモデル間でパフォーマンスを比較することができます。
  • Google 翻訳は、ある単語に対して、男性と女性の両方を前提とした翻訳文を併記することで、性別の偏りの軽減を目指しています。
  • フェデレーション ラーニングは、データをローカルに保持しながら AI モデルをトレーニングして製品を向上できるようにする、機械学習の新しいアプローチです。Google は、この取り組みを拡大するとともに、技術を TensorFlow Federated としてオープンソースで公開しています。
  • 人間中心の AI 製品を開発する方法や意思決定の枠組みを People + AI Guidebook として 5 月に公開しました。同ガイドブックには、 Google で製品開発を担当している40のチームが執筆に参加しました。

Google では、「責任ある AI の実践」において、最新の技術的知見や社内の取組みを四半期ごとに更新しています。

検証プロセス

検証プロセスは、私たちの AI 開発における基本方針を実行に移す上で重要な役割を負っています。社員においては、担当プロジェクトを基本方針に照らして検証するプラクティスを推奨するとともに、新規プロジェクトや製品、取引を慎重に検証し評価するプロセスの継続的な向上に努めています。評価においては、そのプロジェクト等が提供できる価値と、リスクを軽減する方法を考慮しています。その例を以下に 2 つご紹介します。

Cloud AI Hub

企業や組織は、Cloud AI Hub を利用することで、学習済みのさまざまな機械学習モデルに容易にアクセスしたり、共有したりすることが可能です。ただし、AI Hub に投稿されるコンテンツの多くは Google 以外の組織によって公開されるものであり、AI の基本方針に照らしてすべてのコンテンツを評価することは困難です。そのため、AI Hub の公開に先立ち、倫理的な問題がないか、有害な二次利用、悪用、または誤解を招く情報の提示の可能性等を含む要素を検証しました。検証過程において、潜在的に危険かつ有害なコンテンツを処理するために、以下の 2 段階のアプローチを採用しました。

  1. コミュニティメンバーに対し、不公平な偏見を助長するような問題を見つけた場合、それを是正するようなアクションを推奨する: コミュニティ支援策として、Cloud AI では、ユーザーが信頼できるコンテンツの識別に役立つリソース ( 偏りのない ML のためのガイドなど ) を提供しています。
  2. Cloud AI Hub の利用規約において、コンテンツの制限と行動規範について記載した項目を設けました。

上記のような対策をセーフガードとして導入することで、AI Hub のコンテンツ エコシステムの有用性及びコミュニティの安全性を高められる可能性を考慮し、AI Hub の公開に踏み切りました。

Text-to-speech (TTS) に関する研究論文

AI 研究において、これまではわずかに異なるタスクを実行するためであっても、一から大量のデータを元にシステムをトレーニングしなおさなければいけないとされていました。この問題を解くために、Google の研究グループはある研究論文を公開しました。この論文では、一度トレーニングしたシステムをこれまでよりはるかに少ない時間とデータで新規の話者たちに対して適応させる、効率的な Text-to-speech (TTS) ネットワークについて詳述しています。

このよりスマートな Text-to-speech ネットワークは、発話障害、ALS、または気管切開を受けられた患者さんの役に立ちますが、詐欺目的での音声の合成など、有害な用途に用いられる可能性もあります。

この論文においても先程と同様に検証を行いました。その結果、このテクノロジーを機能させるために必要なデータの質などを考慮し、同論文が扱うテクノロジーが誤用される可能性は限定的であると結論づけました。インターネット上で恣意的に集められた音声記録はデータの要件を満さないこと、また、聞き手が、話者の声と Text-to-speech ネットワークによって生成された音声サンプルを聞き分けられるだけの十分な違いがあることから、Google の AI 利用における基本理念 に照らして、論文の公開を決定しました。Google では、このような検証の手順を踏むことで、誤用や悪用の可能性を検出・防止するべく、今後も取り組んで参ります。

外部ステークホルダーとの協力

幅広いコミュニティとの継続的な対話は、社会的責任に基づいた AI 開発には欠かすことができません。Google は、政策立案者やテクノロジー業界との対話に参加しており、 100 以上のワークショップ、学術会議、サミットへ参加し、世界 4,000 を超えるステークホルダーの皆さんと協力しています。

AI の進化に伴い、私たちの考え方やアプローチを継続的に共有するとともに、AI の責任ある発展に向けて、学界や産業界、政策立案者の皆さまと対話を続けて行きます。Google は、特定の分野や用途に合わせたスマートな規制を支援しており、AI ガバナンスへの実用的かつ将来を見越したアプローチを促進するために、本年初頭にホワイトペーパーを公開しました。この文書では、AI のための枠組みを構築するために、政府が市民社会や AI の実務家と協力すべき 5 つの分野を概説しています。

私たちがしなければならないことは増えることはあっても、減ることはありません。人類にとって有益なテクノロジーの殿堂に AI が入るためには、対話、検証、そして広い視野が求められています。今後とも、Google は各界のリーダー、政策立案者、学界やその他の関係者とともに、この重要な問題に取り組んで行きます。