米Googleは6月7日(現地時間)、AI(人工知能)に関する同社の取り組みのための原則を発表した。スンダー・ピチャイCEOは「AIのリーダーとして、われわれはAIの正しい扱いについて大きな責任を感じている。(中略)この原則は単なる理論的コンセプトではなく、われわれの研究開発および製品開発の方針を支配し、意思決定に影響を与える具体的な基準だ」と語りました。

Googleは、同社が2017年9月に米国防総省(DoD)と契約した「Project Maven」への協力に関し、社内外から批判を浴びていた。この契約は、GoogleのAI技術と画像識技術をDoDに提供するというものだが、その技術は軍事ドローンに利用される可能性があるという。

4月には、Googleの3000人以上の従業員がこの契約に反対するピチャイCEOへの請願書に署名したと報じられました。

今回の原則発表はこうした批判を受けてのものだ。AI利用の原則として、以下の7項目を掲げました。


1. 社会貢献できる利用
2. 不公平な偏見を生む利用をしない
3. 安全な開発とテスト
4. 説明責任を果たす
5. プライバシーの保護
6. 研究成果や知識の共有
7. 有害となる可能性のある利用の制限

また、AIを利用しない4つの領域を明示しました。


1. 全体的な害を引き起こす可能性のある技術
2. 人間に危害を与えることを目的とした武器その他の関連技術
3. 国際的なプライバシー規範に反する監視のために情報を収集・利用する技術
4. 国際法と人権に関する原則に反する目的を持つ技術

DoDとの契約の責任者でGoogle CloudのCEOであるダイアン・グリーン氏は同日、「Google Cloudを含むGoogleは、武器化したシステムへのAI利用を支援しない」と宣言しました。ただし、Project Mavenの契約は更新はしないが破棄もしない。また、サイバーセキュリティ、生産性ツール、医療などについては今後も政府機関と協力していくとしています。