2018年1月9日火曜日

これを貼れば何でもトースターに見えちゃう魔法のステッカー(AIだけ有効)

画像認識技術の悪夢。

画像認識技術は精巧になってきたかもしれませんが、簡単に騙されもします。これまでAIは研究者らに欺かれ、スキーヤー2人組と犬を、野球ボールとエスプレッソを、そして亀とライフル銃を誤認識してきました。そして、このたび新たに登場したAIを騙す手法は、ただのステッカーを使うだけのシンプルな手法ながら、その影響は広範囲に及ぶものです。

Googleの研究者たちは、関連のない画像の上に置くことで、AIにその画像をトースターだと認識させてしまうサイケデリックなステッカーを開発しました。最近提出されたその攻撃手法についての研究論文には、このステッカーは「状況に左右されず機能する(scene-independent)」と書かれています。すなわち、ステッカーと一緒にどんなモノがAIのカメラに写ろうとも、光がどのように当たっていようとも、どんな角度でカメラが認識していようとも、このステッカーはただカメラに写るだけで機能するということです。しかもネットから共有や印刷できるので入手しやすいというおまけ付き。

Googleのディープラーニング研究チームGoogle BrainのメンバーであるTom Brown氏が投稿したYouTubeの動画では、このステッカーがどのように作用するのかバナナを用いて実演しています。机上のバナナの画像はニューラルネットワークのVGG16によってバナナであると正確に分類されますが、その隣にサイケデリックなステッカーが置かれると、トースターとして分類されてしまうのです。

そうなる理由として、ディープラーニングのモデルが1枚の画像の中で検知するアイテムは1つ、もっとも突出したと考えられるアイテムのみだからだと研究者たちは論文の中で述べています。「ステッカーは、現実世界の物体よりもずっと突出したインプットを生成することで、AIの特徴を利用している」んだとか。「そのため、物体検出や画像分割のモデルを攻撃する時は、標的とされたトースターパッチがトースターとして分類され、画像の他の部分には影響を及ぼさないと予期する」とのこと。

機械学習のアルゴリズムに見間違いをさせる手法はたくさんありますが、簡単に実行できて目立たないという点で、この手法は特に重大です。「人間はこういったパッチに気づけたとしても、パッチの目的を理解しないでアートの形式として眺めるかもしれない」と論文には書かれています。

今のところ、AIにバナナをトースターだと誤認識させたとしても、社会への脅威になることはありません。しかし、世界が画像認識技術に頼ることが増えるにつれ、このような簡単に実行できるタイプの手法は混乱を引き起こすことも。特に注目すべきは自走自動車の発展で、こういった機械は画像認識ソフトに頼って、周辺の状況を理解して作用しています。もし高速道路を転がっている何トンもの金属が、ただのトースターにしか見えないなら危険なことになり得ますからね。

0 件のコメント:

コメントを投稿