アラカン"BOKU"のITな日常

文系システムエンジニアの”BOKU”が勉強したこと、経験したこと、日々思うこと。

AIのセキュリティは大丈夫?普及期にはいってくると、悪いこと考える奴も増えてくるからね。

AI(人工知能)は普及期にはいってきてます。

 

これは間違いないと思うんですよね。

 

今や、ありとあらゆる所でAIを使ったソリューションが検討されていますし。

 

でも、そうなってくると、やっぱり気になるのはセキュリティ。 

 

正直、不安です。

 

利用者側が、AIの判断した結果を過信する度合いに比べて、セキュリティに関する部分は脆弱だと感じているので。

 

まだ、今のAI(人工知能)は、実質的には人工無能的に近い部分が多くあります。

 

人と会話したり、クイズに答えたりして、いかにも「知能がある」ように見えますが、これはそう見えるようにしている・・だけです。

 

言葉の意味・質問の意味を理解して答えているわけではありません。

 

膨大な学習結果から自動的に把握した特徴点を使ったパターンマッチングで、一致する可能性のあるものを返しているだけです。

 

だから、間違ったデータで学習してしまうと、平気で間違った答えを出す。

 

それがAIです。

 

ちょっと前に、マイクロソフトのチャットボット「tay」が運用停止に追い込まれた事件なんて、その典型ですよね。

nlab.itmedia.co.jp

 

まあ、この程度で済むなら、マシなんですが。

 

例えば、自動運転とか。

 

これで学習データが一部間違っていて、間違えましたなんてなると。

 

これはシャレになりません。

 

もちろん提供する側は、細心の注意をはらって正しい学習データを使うようにします。

 

当然のこととして。

 

でも、これはすべての人間が善意の存在であることが前提になります。

 

実際に、そんなことはありえないのですけどね。

 

今のところ、まだ、悪意のある攻撃に対するセキュリティの話はあまり聞きませんが、そろそろ、そういう話題がでてきてもおかしくないなと、そう思って情報を探していると、こんな記事がありました。

business.nikkeibp.co.jp

 

引用します。

「AIが判断を間違えると、大変な問題を引き起こす恐れがある。AIをどうやって防御するかが、大きな課題になっている」。

Googleに所属するAI研究者であるIan Goodfellow氏はそう語る。

2017年10月にシリコンバレーで開催されたディープラーニングに関するカンファレンス「BayLearn 2017」でも、セキュリティ問題が大きなテーマになった。

 

やっぱり・・そうなんですね。

 

上記の記事の中で代表的な攻撃の事例があげられてます。

 

すべてを引用しませんが、特にぞっとした以下の部分だけ引用します。

アドバーサリアル・エグザンプル攻撃が恐ろしいのは、悪用が容易で、社会生活に与える悪影響が大きいことだ。

例えば、自動運転車に交通標識を誤認識させる攻撃が有りうる。

ワシントン大学のIvan Evtimov氏らが2017年7月に発表した研究によれば、交通標識に細工をしたステッカーをはり付けるだけで、画像認識モデルをあざむき、「停止」の交通標識を「速度規制」の交通標識に誤認識させられたという(写真3)。

自動運転の安全性に直結する問題だ。

 

怖いですね。

 

ステッカーひとつで、停止標識を無視して、自動運転車を走らせることができるというわけですから。

 

こういう脆弱性を残したままにすると、絶対、やる者がでてくるのが人間ですしね。

 

だから、それを想定して防ぐ手段を考えなければならない。

 

今のウイルス・マルウエアと、セキュリティソフトとのイタチごっこのような戦いをみるにつけ、そういう悪意との戦いは、ほぼ永遠に続くんだろうな。

 

そう思ってしまいます。

 

AIもいよいよ、その段階にはいってきた。

 

そういうことではあるんですけど。

 


機械学習その他の記事一覧はこちらです。

arakan-pgm-ai.hatenablog.com