SE_BOKUのまとめノート的ブログ

SE_BOKUが知ってること・勉強したこと・考えたことetc

不適切な動画を削除する最終判断は、AIではなく人間(モデレータ)がしている

f:id:arakan_no_boku:20190301193447j:plain

不快な動画は最終的に人間が削除判断してる?

動画コンテンツを不特定多数の人間がアップロードする限り、良質なものにまじって、犯罪まがいのものや、正視に耐えないような「バッドコンテンツ」が紛れ込んでくるのは避けられません。

動画プラットフォームの提供側は無視できません。

なので、動画プラットフォームの提供側は常にコンテンツをチェックして、不適当なものを削除しなければならないのですが、今時、それらは人工知能(AI)がやっているもんだと思ってました。

でも、実際は人工知能(AI)が勝手に削除してしまうわけではないようです。

最終的には人間が確認して削除したり、人工知能(AI)の識別精度をあげるための学習データの作成をしているそうです。

そういう仕事をする人を「モデレーター」といいます。

 

モデレーターはキツイ仕事だという情報ばっかり

大量のバッドコンテンツを見続ける仕事は、精神的にきつそうだな。

そう思ってググってみると、やっぱ、それらしい記事ばかり。

wired.jp

www.j-cast.com

gigazine.netestorypost.com

 

モデレーターが厳しい仕事なのは間違いない

上記の記事からいくつか引用すると。

写真だけでも1万5000枚のチェックを行うため、従業員のメンタル面にかかる負担は非常に大きく、中には精神を病んで自殺してしまう人もいたという。

元従業員も、セラピストが見せた普通の父子の写真を「近親相姦」と誤認したことで、会社から「退職して本格的な治療を受けるよう」申し渡された。

とか。

モデレーターとして働くラウラさんに向けて「私生活などに支障をきたすことはあるか?」という質問が投げかけられると、「私は何度も悪夢を見ました。

私が覚えているものでいうと、なぜかはわかりませんが、人々が建物から飛び降りるという悪夢を見たことがあります。

そして、飛び降りる人たちは周りに助けを求めるわけでもなく、写真やムービーを撮影しているんです」と、何度も悪夢にうなされていることを告白。 

とか。 

当時、彼に与えられた仕事は、Googleプロダクトにアップロードされる違法コンテンツをレビューするというもの。

そこで彼が目にしたのは、「獣姦」「死姦」「人体損傷(流血、自殺、斬首)」「児童ポルノ」など、吐き気のするようなおぞましいものばかりだった。

「心に生々しい傷跡が残るような経験だった」と彼は語る

とか。

いやあ・・辛い。

1.5倍速で動画を見続けて、「吐き気がするようなおぞましいもの」を延々と削除し続ける仕事って・・ねえ、普通の感覚を持っている人間にとっては、じわじわと精神を削り取られるような拷問に近い仕事です。

 

僕らはモデレーターさんに感謝しないといけない・・と思う

当たり前に電気が使える。

きれいな水が水道からでてくる。

スイッチを入れればガスで火が付く。

ゴミは決まった日時に回収してもらえる。

などなど。

こういう日常の当たり前は、それを支えてくれている人たちがいるからこそなりたっているということを、つい忘れがちです。

動画も一緒ということです。

まあ。

こういう仕事こそ、人間がしなくて済むようになるのが一番ではあるのですが・・、すべてを人間がかかわらずにやるのが無理そうなこともわかりますから。

せめて「モデレータ」への感謝を忘れちゃいけない・・ということです。

はい。