Googleの自動運転カー

Googleの自動運転カー、安全運転すぎて事故にあう?
 今年8月、横断歩道を渡ろうとして待っている歩行者を見つけた自動運転車は、ブレーキをかけて一時停止した。歩行者は無事だったが、自動運転車は後ろから来た有人のセダンに追突されてしまった。この事故で、自動運転車に乗っていたGoogle社員は軽いむち打ち症で病院に送られたという。
 横断歩道の近くに歩行者がいれば、クルマはその手前で一時停止することが交通法規で定められている(日本の法律でも同じだ)。一方、周囲の状況によっては注意しながら通過した方が安全だとドライバーも歩行者も理解している。しかし、Googleの無人車は交通法規を文字通り守るようプログラムされているため、このような事故が起きてしまったというのだ。
 自動運転車にまつわるトラブルは今回だけの特異なケースではない。2009年のテスト走行では、交差点を通過する際に他のクルマが完全に停止してくれなかったために、自動運転車はいつまでも待ち続けるはめになってしまったという。
 米カリフォルニア大学サンディエゴ校デザイン研究所のディレクターであるドナルド・ノーマン氏は、NYTの記事で「問題は、自動運転車があまりにも安全すぎることなのです」と指摘している。「自動運転車は“適当さ”を知らなければいけません。そしてその適当さは、人々の文化によって変わるのです」(ノーマン氏)。
 また、Googleで自動運転車のテスト走行を担当しているトム・サプル氏は「Googleの自動運転車は常に法規に従うが、他のクルマの動きについて『なぜそうするのか』が分からないんだ」と話している。
 NYTによると、Googleの自動運転車は開発がスタートした09年から計16回の事故を起こしている。その多くはフェンダーの破損で、同社によれば「(周囲の)人間側のミス」が原因だという。
ーーーーー
たぶん、グーグル自動車の特性を見極めたうえで、その特性を逆手にとって、自分が利己主義的に有利に走る車も登場するだろうと思う。
いたちごっこになって、困ったものだ。
それを防ぐには、全部をグーグルカーにするしかない。

ーーーーー
工学部の先生に聞いてみたら、プログラミングの段階で、
法律第一、安全第一を貫くと、
結局全車両一ミリも動かないことが一番安全ということで
どの車も全く動かないのじゃないかという冗談があるのだという
少なくともそれが最適解の一つらしい

一番安全なのは動かないことである
(動かないから追突されるとか実際はあるわけだけれども
システム全体がグーグルカーになれば
全部が完全停止していれば「安全」は確保されるし
交通法規に抵触することもない)

だから、それ、冗談だよね