"BOKU"のITな日常

BOKUが勉強したり、考えたことを頭の整理を兼ねてまとめてます。

不適切な動画を削除する最終判断は、AIではなく人間(モデレータ)がしている!?

YoutubeFaceBookの動画コンテンツを安心して見ることができるのは、当たり前ではなくて、つらい裏方仕事をこなしてくれている人がいるからこそです。

f:id:arakan_no_boku:20190301193447j:plain

 

不快な動画は最終的に人間が削除判断してる?

 

動画コンテンツを不特定多数の人間がアップロードする限り、良質なものにまじって、犯罪まがいのものや、正視に耐えないような「バッドコンテンツ」が紛れ込んでくるのは避けられません。

なので、常にコンテンツをチェックして、不適当なものを削除しなければなりません。

自分は、今時、それらを人工知能(AI)が担っていると思ってました。

でも、実際は人工知能(AI)が勝手に削除してしまうわけではなく、最終的には人間が確認して削除したり、人工知能(AI)の識別精度をあげるための学習データの作成をしているそうです。

知らなかったですね。

恥ずかしながら。

そういう仕事をする人を「モデレーター」といいます。

 

キツイ仕事だよなという情報ばっかり

 

大量のバッドコンテンツを見続ける仕事は、精神的にきつそうだな。

そう思ってググってみると、やっぱ、それらしい記事ばかり。

wired.jp

www.j-cast.com

gigazine.netestorypost.com

 

かなり厳しい仕事だというのは本当そうだ

 

上記の記事からいくつか引用すると。

写真だけでも1万5000枚のチェックを行うため、従業員のメンタル面にかかる負担は非常に大きく、中には精神を病んで自殺してしまう人もいたという。

元従業員も、セラピストが見せた普通の父子の写真を「近親相姦」と誤認したことで、会社から「退職して本格的な治療を受けるよう」申し渡された。

とか。

モデレーターとして働くラウラさんに向けて「私生活などに支障をきたすことはあるか?」という質問が投げかけられると、「私は何度も悪夢を見ました。

私が覚えているものでいうと、なぜかはわかりませんが、人々が建物から飛び降りるという悪夢を見たことがあります。

そして、飛び降りる人たちは周りに助けを求めるわけでもなく、写真やムービーを撮影しているんです」と、何度も悪夢にうなされていることを告白。 

とか。 

当時、彼に与えられた仕事は、Googleプロダクトにアップロードされる違法コンテンツをレビューするというもの。

そこで彼が目にしたのは、「獣姦」「死姦」「人体損傷(流血、自殺、斬首)」「児童ポルノ」など、吐き気のするようなおぞましいものばかりだった。

「心に生々しい傷跡が残るような経験だった」と彼は語る

とか。

いやあ・・辛い。

1.5倍速で動画を見続けて、「吐き気がするようなおぞましいもの」を延々と削除し続ける仕事って・・ねえ、普通の感覚を持っている人間にとっては、じわじわと精神を削り取られるような拷問に近い仕事です。

 

感謝しないといけない・・と思う

 

当たり前に電気が使える。

きれいな水が水道からでてくる。

スイッチを入れればガスで火が付く。

ゴミは決まった日時に回収してもらえる。

などなど。

こういう日常の当たり前は、それを支えてくれている人たちがいるからこそなりたっているということを、つい忘れがちです。

動画も一緒ということです。

まあ。

こういう仕事こそ、人間がしなくて済むようになるのが一番ではあるのですが・・、すべてを人間がかかわらずにやるのが無理そうなこともわかりますから。

せめて「モデレータ」への感謝を忘れちゃいけない・・ということです。

はい。