"BOKU"のITな日常

還暦越えの文系システムエンジニアの”BOKU”は新しいことが大好きです。

技術独走で自動運転車が実用化に向かう状況を恐ろしいと思う理由

個人的には、今のまま技術独走で自動運転車が実用化まで突き進むと「怖い」と思ってるのに、世間的にはそうでもないのが不思議です・・というのが今回の話題です。

f:id:arakan_no_boku:20190330155543j:plain

 

自動運転とは

 

まず、話の中で自動車の「自動運転のレベル」を書く必要があるので、さわりだけ触れときます。

matome.response.jp

 SAE Internationalという組織が定義しているレベルが採用されているそうですが、こんな感じのやつです。

  • レベル0 ドライバーがすべてを操作
  • レベル1 システムがステアリング操作、加減速のどちらかをサポート
  • レベル2 システムがステアリング操作、加減速のどちらもサポート
  • レベル3 特定の場所でシステムが全てを操作、緊急時はドライバーが操作
  • レベル4 特定の場所でシステムが全てを操作
  • レベル5 場所の限定なくシステムが全てを操作

レベル2までを「運転支援」、レベル3以上を「自動運転」というとのこと。

後ろの方の記述で、レベルを書いているのは、すべてこれベースです。 

 

なんで恐ろしいと思っているのか

 

さて。

なぜ個人的に、今のまま技術独走で自動運転車が実用化まで突き進むと「怖い」と思っているか・・です。

理由は単純です。

自分は、自動運転車について、ある程度の安全性は技術の進歩が担保してくれるとしても100%ではないものだと思っているからです。

プログラムにバグは付き物だし、センサーやCPUチップ等システムを構成している何かの部品が故障することだってあります。

初期出荷の時は完璧であったとしても、メンテナンスをちゃんとしない人もいるでしょうから、経年劣化でおかしくなる場合もある。

だから、沢山の部品で構成された精密機械である「自動運転車」に100%の安全性はありえなくて、必ず、何パーセントかは不測の事態がおきるリスクはある。

その前提で考えないとだめなはずなのです。

なのに、自動運転車についての話には「事故が発生するリスクをゼロにはできない」という前提での話が、ほとんどでてこないです。

まさか・・。

自動運転車は買った人間がメンテナンスもせず乗りっぱなしで何年も放置したって、絶対故障もしないし、安全は100%担保される・・なんて、夢物語を信じてるとは思えないのですが・・大丈夫なのかな?

これが、個人的に怖いと思っている根っこです。

 

自動運転車のリスクって重い課題が多いぞ

 

自動運転車が実用化された時に、新たなリスクとして出現しそうな問題は、いろいろありますが、個人的に大きいと思っているのは以下の2つです。

  • 事故の責任の所在
  • ハッキングのリスク/テロの道具(兵器)として使われるリスク

  

事故の責任の所在

 

まず、これです。

レベル4,5あたりの自動運転車が事故をおこした時、その事故の責任が誰にあるのでしょうか?

もしくは、レベル3の自動運転車が事故をおこした時、その事故を回避できなかったドライバーは事故の責任をどの程度負うことになるのでしょうか?

このあたりが、さっぱりわからないのが、まず恐ろしいと思うことです。

例えばですよ。

自分が自動運転車にのっていて、死亡事故をおこしてしまったとします。

でも、たぶんですが、ドライバー席に座ってはいても、実際に運転していないなら、まるで、乗ってたタクシーが事故を起こしたみたいな感覚にしかならない気がします。

では、自動運転車で事故がおきたら、すべて自動車メーカーの責任だ!・・なんてなりますかね?

自動運転車を購入してからのメンテナンスを、どのくらいきちんとしていたか?

センサーについた泥とかの付着物がついてないか点検して、あったらい、キレイに洗浄してから乗ってたか?

そういう、所有者の整備責任や清掃責任とかは問われないのか?とか。

そもそも、予防の意味あいで、センサーの汚れた自動運転車に乗っていたこと自体、整備不良で法律違反の対象にならないのか・・とか。

色んな要素があるので、自動車メーカー側も責任なんか簡単に認めるとは思えません。

だいいち、いちいち認めてたら、リコールが必要になったり、売れなくなるリスクがあって会社がつぶれてしまうかもしれませんしね、結局、泥沼の責任のなすり合いになるような気がして仕方ありません。

そうなったら、加害者も被害者も死んでも死にきれない・・。

そんな光景になってしまうのではないでしょうか?

そうならないように法整備とかをどうすべきか?・・とか、今からすぐ検討を始めても遅いくらいじゃないか・・って思うんですがねえ。  

 

ハッキングのリスク/テロの道具(兵器)として使われるリスク

 

さらに怖いのが、これですね。

自動運転車のシステムがハッキングされるリスクもゼロにはできません。

改造されたりとかもあるかもしれませんし。

ハッキングしたり、改造してしまえば、自動運転車は最強のテロ兵器になりえます。

例えば。

テロリストによって改造プログラムを埋め込まれた自動運転車が爆弾を積んでおおぜいの人間がいるところにつっこんでくるとか。

ハッキングされて、自分の乗っている自動運転車が歩道とか歩行者天国道路とかに突っ込んでいくのを運転席から呆然と見ているしかなくなったら・・とか。

想像するだけで、金玉が縮む恐ろしさです。 

 

自動車メーカーだけでは無理な領域も多いぞ

 

正直、自動運転車なんか個人的にはいらない(笑)と思ってますけど、社会全体としてみれば必要な技術であろうということくらいはわかってます。

だから、自動運転車の技術開発をとめるとか、そんなことは望んでません。

でも、自動運転車って、今の自動車の延長線上にあるものではなくて、「まったく新しい乗り物」だと考えないといけないとは思ってます。

そのへんは、自分らの知らないところで、頭の良い人達がすでに考えていると信じたいのですけど、仮に、そうなってなくて「今の自動車の延長線上」でしか考えられてなかったとしたら。

  1. 自動運転車が実用化されて公道を走り出す。
  2. どっかで死亡事故などがおきる/または自動運転車によるテロがおきる
  3. 社会問題化する
  4. そっから政府が検討をはじめる

みたいな泥沼みたいな状況がでてくるんじゃないかとも思えます。

もしくは「自動運転車は100%安全な乗り物」なんて認識で実用化が進んでしまい、どっかで死亡事故とかおきた途端に、手のひら返しで「こんな危険な乗り物はいらない」みたいな世論の揺り戻しがおきたりとかもありえます。 

だからですね。

自動運転車も事故を起こす可能性があって、所有者になったら、こまめに整備しないといけないはずだ・・みたいな現実論をベースにした「技術以外の検討」とかも、そろそろ表面にでてきてもいいのにな・・と思う今日このごろです。