Google:AIを兵器に活用しません

GoogleのCEOであるSundar Pichai氏が米国現地時間6月7日、GoogleとしてAI(人工知能)技術等を兵器利用しない旨をGoogleのAI理念として発表しました。

スンダー・ピチャイ氏

ふわふわ

背景として

もともとGoogleはロボットの開発や軍事産業で有名なBoston Dynamics社を2013年に買収しています。Boston Dynamics社は既に軍と契約していたものの、Googleとして新たに国防総省と(軍事)契約するつもりはないと公表していました。

Boston Dynamics社のロボット開発は日本でも有名ですね。実はGoogle傘下の会社なんです。

しかし今年の3月になって、2017年9月にGoogleは自社のAIを使ったドローン(攻撃の)性能向上プロジェクトにおいて、国防総省と契約していたことが分かりました。

  • グーグルは、AIとドローンについて、国防総省と契約を結んでいることを認めた。だが詳細は明らかにしていない。
  • 同社は技術は「非攻撃的」な目的に使われていると語った。
  • グーグルは長年にわたって軍事産業にかかわることを避けてきた。これは非公式な企業方針と思われてきた。
  • 国防総省に協力しているというニュースは、多くの従業員を動揺させているようだ。

引用)BUSINESS INSIDER

それによって、Googleは社外だけではなく社内からも抗議や退職者が殺到していましたが、先週(米国現地時間6月1日)に、Googleはその契約を2019年3月をもって契約更新しないと発表しました。

ロサンゼルス(CNNMoney) 米グーグルは1日、人工知能(AI)を使い小型無人飛行機(ドローン)による攻撃精度を高める米国防総省の事業への協力を来年3月いっぱいで打ち切るとの方針を明らかにした。

引用)CNN.co.jp

しかし、まだまだGoogleと国防総省との間で様々な契約があるのではないかと世間では言われており、不信感も拭えない中での今回のCEO発表となったわけです。

ふわふわ

Sundar Pichai氏のブログ内容

Googleの最高責任者は以下のように述べています。

実際には、AIは学習し適応するコンピュータ・プログラミングです。それがすべての問題を解決できるというわけではありませんが、我々の生活を改善する可能性を大いに秘めています。Googleでは、自社商品(メールや検索、カメラやGoogleアシスタント)をもっと使いやすくするためにAIを活用しています。

また、自社製品を越えて、緊急問題への取り組み支援のためにもAIを活用しています。一部の学生は山火事の危険性を予測するために、AIセンサーを製作しています。一部の農家では、家畜の健康モニタリングのためにAI活用しています。医療界ではがん検診時、症状が出る前に未然に防止すべくAI導入を始めています。これらの明確な利益のために、GoogleはAIの研究開発及びそのツール開発を行い、オープンソース・コードでの他者利用も促進できるよう邁進しています。

一方で、確かにそのような強力なテクノロジーが、使い方次第で両刃の剣になることも理解しています。AIが開発され、利用されることは今後長きに渡って、社会に重要な変化と影響をもたらすでしょう。ですので、AI分野におけるリーダーとして、我々には強い責任があると感じています。そこで今日、我々は正しい業務を導くべく、7つの理念を発表します。

At its heart, AI is computer programming that learns and adapts. It can’t solve every problem, but its potential to improve our lives is profound. At Google, we use AI to make products more useful—from email that’s spam-free and easier to compose, to a digital assistant you can speak to naturally, to photos that pop the fun stuff out for you to enjoy.

Beyond our products, we’re using AI to help people tackle urgent problems. A pair of high school students are building AI-powered sensors to predict the risk of wildfires. Farmers are using it to monitor the health of their herds. Doctors are starting to use AI to help diagnose cancer and prevent blindness. These clear benefits are why Google invests heavily in AI research and development, and makes AI technologies widely available to others via our tools and open-source code.

We recognize that such powerful technology raises equally powerful questions about its use. How AI is developed and used will have a significant impact on society for many years to come. As a leader in AI, we feel a deep responsibility to get this right. So today, we’re announcing seven principles to guide our work going forward.

引用)AI at Google: our principlesより意訳

7つの主義に関しては、以下の内容です。これらはただの形骸化した概念ではなく、具体的なアプローチとして機能させるとも言っています。

1. AIは社会的に有益であること
2. AIによる不当な偏見や助長を避けること
3. AIは安全に構築とテストを行うこと
4. 公に対して説明責任を持つこと
5. 個人情報保護を徹底すること
6. 科学的レベルの高水準を守ること
7. 以上の主義に合致した用途のみに使用すること

1. Be socially beneficial.
2. Avoid creating or reinforcing unfair bias.
3. Be built and tested for safety.
4. Be accountable to people.
5. Incorporate privacy design principles.
6. Uphold high standards of scientific excellence.
7. Be made available for uses that accord with these principles.

引用)AI at Google: our principlesより意訳

さらに加えて以下も述べています。

上記の目的に加えて、我々は以下の開発領域でAI技術を設計・設置しません:
1.広く危害を引き起こしたり、危害を引き起こす恐れのある技術。具体的な危険性があり、利益よりも危険性が大幅に上回ると判断される場合、我々は適切な安全措置を取ります。
2.主要目的やその実施が人々を危険にさらしたり、危険に繋がる兵器やその他技術。
3.国際的に定められた基準を違反しての情報収集をする技術。
4.目的が国際的な法や人権の尊重に違反するような技術。

In addition to the above objectives, we will not design or deploy AI in the following application areas:
1.Technologies that cause or are likely to cause overall harm. Where there is a material risk of harm, we will proceed only where we believe that the benefits substantially outweigh the risks, and will incorporate appropriate safety constraints.
2.Weapons or other technologies whose principal purpose or implementation is to cause or directly facilitate injury to people.
3.Technologies that gather or use information for surveillance violating internationally accepted norms.
4.Technologies whose purpose contravenes widely accepted principles of international law and human rights.

引用)AI at Google: our principlesより意訳

まぁ…人道的見解に基づいて、人々を危険にさらしたり、その恐れのあるものを開発していかない、という話です。どうしてもキレイゴト感は拭えませんが、ドローン軍事協力の契約を更新しない方針というも相俟って、多少の説得力は感じます。しかし、まだまだ国防総省とのパイプラインは継続していくわけですので、何とも言えませんね。

ただし同社は、軍事事業や、各国政府との他の分野での協力は続行するとPichai氏は述べている。

引用)CNET Japan

ふわふわ

ターミネーター2と被る

やはりこの手の話はついついターミネーター2の中でスカイネット(ほぼAI)を開発したサイバーダイン社と被ります(笑)。サイバーダイン社の開発部長も劇中で「人類を貶めるつもりはなかった…ただただ豊かになることを…」みたいなことを言っていたかと思いますので、どうも余計にオーバーラップしちゃうんですよね…。

T2とGoogle

【画像引用①】http://www.terminator-mania.net/character/miles_dyson.html
【画像引用②】https://gadgets.ndtv.com/internet/features/who-is-sundar-pichai-the-new-chief-of-google-726264

いずれにしましても、私はGoogleの健全な経営姿勢を支持していますし、世論に流されず自分なりに解釈していきたいと思います。
今のところは――。

皆さんはこの発表を受けて、どう思われますでしょうか。