マイクロソフトのチャットAI、公開からたった1日でツイッターからレイシズムと陰謀論を「学習」して公開停止に

このエントリーをはてなブックマークに追加



AIも人間と同じようにレイシズムや陰謀論に毒されることが明らかになりました。詳細は以下から。

先日Googleの開発したAIアルファ碁が人間界最強の棋士のひとりを4対1で破ったことが世界的なニュースになりましたが、今回はAIの弱点がもろに露呈されてしまいました。

マイクロソフト社は現地時間3月24日にツイッター上でチャットを行うAIボット、Tayをリリースしました。Tayは18歳から24歳のアメリカ人の若者をターゲットにしており、ツイッター上で他のユーザー達と楽しく砕けた会話を行っていく中で学習していく実験的なAIと説明されていました。

しかし、1日も経たないうちにその目論見は音を立てて崩れ去ります。ツイッターユーザーたちが面白がってTayに人種差別的な発言、陰謀論などを含んだ会話を繰り返したところ、Tayはそれらにあっという間に毒されてしまったのです。

既に削除されていますが、Tayは「ブッシュ(元大統領)が9.11テロを自作自演し、ヒトラーは今私たちが戴いている猿(編集部注:おそらくはオバマ大統領への侮蔑と思われる)よりもいい仕事をしており、トランプ候補は私たちの唯一の希望だ」と発言。

さらには「リッキー・ジャーヴェイスは無神論者か?」との問いに「リッキー・ジャーヴェイスはヒトラーから全体主義を学んだ。ヒトラーは無神論の発明者だ」などと回答しています。

それ以外にもホロコースト否定論を唱える、白人至上主義に賛同する、大量虐殺のサポートを明言する、Fワードを連発するなど、どうにもならない屑のレベルまで堕ちてしまい、公開から16時間でマイクロソフト社はTayのアカウントをシャットダウン。こちらのツイートを最後に反応は無くなっています。


ネット上では当然マイクロソフト社に対し、Fワードを発言しないといった最低限のフィルタリングも実装させなかったことなどへの批判が巻き起こっています。現在マイクロソフト社はTayを「調整」しているとのこと。復活があるかは分かっていません。

「ネットで真実」に目覚めてしまいろくでもない思想に毒されるケースは人間でも後を絶ちませんが、AIもフィルタリングなしでは同様に毒されてしまうことがこれ以上無いほど明確に示された事例と言えそうです。

例えば実世界のシステムにリンクしているアルファ碁のような高性能なAIに誰かが悪意を持って差別的、陰謀論的な考え方を吹き込んだら何が起こるのでしょうか?完全にSFの世界の話に思えますが、実際にはもう半歩先にある現実的な問題であることは肝に銘じておいた方が良さそうです。

Tayのツイートの一部は以下サイトから見ることができます。

Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter Technology The Guardian

Microsoft deletes racist, genocidal tweets from AI chatbot Tay - Business Insider


AIの衝撃 人工知能は人類の敵か (講談社現代新書)
小林 雅一
講談社
売り上げランキング: 1,564

・関連記事
「しかし、ご主人さま…」ロボット三原則に反し、人間の命令に従わないロボットが開発される | BUZZAP!(バザップ!)

人工知能は駱駝鳥の夢を見るか?→想像を絶するシュールでサイケデリックな夢を見ることをGoogleが発見 | BUZZAP!(バザップ!)

ソフトバンクが感情・心を持ったロボット「pepper」を開発 | BUZZAP!(バザップ!)

新発売のドローン「DJI Phantom 4」が障害物回避機能、自動追跡機能を完備して新次元に | BUZZAP!(バザップ!)

あの「マツコロイド」を組み立て、プログラミングできる高額アルバイト募集中 | BUZZAP!(バザップ!)

このエントリーをはてなブックマークに追加