MENU
BIZLAW BIZLAW
Powerd by LexisNexis®
BIZLAW
BIZLAW Powerd by LexisNexis®

RSS
Google+
Twitter
Facebook
HOME

社会構造に降り始めた
「自動運転車」という隕石(後編)

インクリメントP株式会社 知的財産法務部長 足羽 教史

legalcuttingedge_main01

 人工知能に関するソフトウェア・クラウドデータベース、医療などのソフトウェア分野、そしてロボット工学、自動運転自動車、ドローンなどのハードウェア分野双方において、テクノロジーは急激な発展と変化を見せています。企業ビジネスがこれらの最先端技術の活用を視野に入れようとするとき、求められるのはビジネスの促進と法的リスクとをカバーできる法務のあり方です。最先端の技術領域を扱うビジネスに関して、これからの法務の課題は何か。あるべき法制度の設計はどのように行われるべきか。この連載では、「最先端法務」の未来を展望します。
 第3回は「難題解決を迫られつつある自動運転車の法律問題」。



 関連記事
   最先端法務とは何か 第1回 データ立国に向けて / 別所 直哉
   最先端法務とは何か 第2回 AI・ロボット・自動運転の法的実務の課題と対応の方向性(その1) / 牧野 和夫
   最先端法務とは何か 第3回 社会構造に降り始めた「自動運転車」という隕石(前編) / 足羽 教史




変更を余儀なくされる社会の設計思想

 完全自動運転車が社会で実現された場合のメリットは一般的に下記が挙げられている。

 ① 渋滞の解消・緩和
 ② 交通事故の削減
 ③ 環境負荷の軽減
 ④ 高齢者等の移動支援
 ⑤ 運転補助の快適性の向上

 米国政府が特に実現したいのは、米国だけで年間3万3000人が命を落とす交通事故の削減であると言われているが、それ以外にも、渋滞の解消によるエネルギー消費の抑制、環境負荷の軽減等も含めて、社会的なメリットは大きい。少子高齢化が急速に進む日本ではこれに加えて、高齢者の移動支援のメリットも大きい。
 だが、それは、自動車の「保有」が減り、「シェア」や公共利用が拡大し、自動車販売台数が減少することを意味する(英国大手投資銀行のバークレイズ・キャピタルが行った調査によると、今後25年間で米国における新車販売台数は40%減少する見込み)。

 自動車産業は関係者の裾野が広く、雇用への打撃は大きい。タクシー、バス、トラック等の運転手の大量失業も受け入れざるを得ないだろう。メリットの代償は決して小さくはない。
 こうなるとこの問題はもはや自動車産業だけの枠には収まりきれない。もっと広範囲に社会の設計思想を変更し、変革していくことにつながらざるを得ず、関係者は究極の決断を迫られることになる。今回、米国政府はその覚悟の一端を示した。今後関係各国の政府も、既存の自動車産業各社も共に大きな決断を迫られることになる。


難題を突きつけられる法曹界

 法的な問題に戻れば、確かに、既存の条約や法規制の大きな変更をせずに乗り越えられる可能性がNHTSAから示されたとは言え、難題は山積みだ。

 たとえば、事故が起きた場合、人工知能に責任を負わせることができるのか。レベル4では人間の運転者はいないから、その責任は開発した企業が全面的に負うのか。開発時点で事故に関わる過失責任が開発企業の側に明らかに認められれば、これは通常の製造物責任法で裁く範疇ということになるだろう。しかし、企業側が関連法規を遵守した上で、何らかの不幸が重なって起きた事故の場合、既存の法規制では対処が困難なケースも考えられる。民事の損害賠償であれば、そのような人工知能=運転者を想定した保険を政府が支援して構築することで、ある程度機能させることは考えられる(渋滞や事故の軽減等の社会的厚生を金銭評価すれば政府が関与することは正当化し得る)。

 しかし、自動車運転過失致死傷罪等で刑事上の責任が問われるケースでは、人工知能に刑事上の責任を問う意義が見当たらない。


越え難い「倫理問題」

 しかも、人工知能の運転能力は、大量の機械学習の成果として習得されるものであり、運転能力や運転の仕方について仮に責任を問う場合でも、因果関係を証明することは事実上不可能だ。今は機械学習も「教師付き学習」が中心だから、教師=企業の結果責任を問うことはできるかもしれない。だが、今後、自動運転車が公道を走り回るようになれば、教師なし学習が加速度的に増えていくことが予想される。因果関係や、判断過程を問うことはますます困難になる(ただし、この因果関係がトレースできるような仕組みの構築にすでに取り組んでいるグループがある、との情報もある)。

 さらには、プログラムに関わる「倫理問題」も解決は極めて困難な問題として残り続けると考えられる。これを理解するために分かりやすい例がある。倫理学上の思考実験の一つである「トロッコ問題」だ。「ある人を助けるために他の人を犠牲にすることは許されるか?」を問うものだ。


legalcuttingedge_03_02_image01

出典:The New York Times (OCT.9.2010) イラスト:Frank O’connell
URL: http://www.nytimes.com/2010/10/10/us/10foot.html?_r=0

 図1の右端の5人に向かって、今、左のトロッコが暴走してくるとする。そしてあなたは真ん中でポイント操作ができる人であると仮定する。あなたは、ポイントを切り替えることで、1人を犠牲にすることで、5人を助けることができる。  さあ、あなたはポイントを切り替える決断ができるだろうか。また、この応用問題として、陸橋の上にいるのがあなたで、隣に太った人がいると仮定して、自分は痩せているので、飛び降りてもトロッコを止めることはできないが、隣の太った人を突き落とせばトロッコは止まる。あなたは、突き落とすことができるだろうか。

 自分で真剣に考えていただければ分かるが、5人と1人という単純な数の問題では解決しない。しかも、もしこの5人がいずれも老人で、老い先短そうに見える一方、犠牲にしようとしている1人が、子ども、あるいは妙齢の美女だったらどうだろう。あるいは、犠牲になるのが自分の家族ならどうだろう。簡単には答えが出せないのが人間というものだ。

 人間が自動車を運転しているときに、急にこのような状況が起きてしまった場合、おそらくパニックになりながらも何らかの判断をするのだろうが、この場合刑法の「緊急避難」の概念が適用される可能性が高い。しかしながら、あらゆるケースを想定して事前にプログラミングできる人工知能の場合はそうはいかない。人工知能には、誰を生かして誰を殺すか、事前に決めておくことができる。だが、その決定は誰がするのか。それこそ、人工知能の機械学習の結果に任せるのか。それは無責任との誹りを受けることにはならないのか


「許された危険」の概念が鍵?

 このように、本当にレベル4の自動運転車を実現するのであれば、おそらく、何らかの妥協とリスクテークを前提とせずには済まないと考えられる。だが、それでもトータルで見た社会的厚生の総量が上回ることは想定できる。実際、現状の自動車も大量の事故による死者を出しているが、それでも自動車製造を禁止されているわけではない。これは危険な行為であっても、社会的に有用なものは、結果回避につき相当な措置が取られていれば違法ではないとする、いわゆる「許された危険」の範疇と言えるが、自動運転車の場合も、何らかの形でこの概念が援用されることになるのだろう。特に、pragmaticな考え方がベースにある米国であれば、国民にも受け入れられやすいのではないか。


誰にとっても無関心ではいられない

 いずれにしても、すでに最終段階に向かうための、賽は投げられた。日本の場合、既得権益者のロビーイングの末に、奇怪で、日本にしか通用しない、いわゆるガラパゴス化した、継ぎ接ぎだらけの「フランケンシュタイン」的法規制になってしまう恐れが多分にある。新しい時代の社会をどのように創っていくのが良いのか十分に検討した上で、大きな構想を固めて、それに基づいて決めていくことを関係者には望みたいものだ。

 非常に広範囲の企業に関係し、そして、社会の一員としても関わりが避けられないこの人工知能関連問題の意味を、どの企業の法務担当者も今のうちによく考えておいたほうがいい。自動運転車のような本来難易度の高い問題に火がつけば、その他の人工知能関連の法的問題にも次々に議論が飛び火していくことは必定だ。自動車産業の外にいる企業の法務担当であっても、無関心でいられないはずだ。人工知能と法にまつわる問題は、あなた自身にも投げかけられている問題であることを忘れるべきではない。



編集/八島心平(BIZLAW)




この連載記事を読む
 最先端法務とは何か

関連記事
 前例なき時代の道標、未来型コンプライアンス

Profile

足羽 教史  [インクリメントP株式会社 知的財産法務部長]


【略歴】
インクリメント P(株)知的財産法務部部長
トヨタ自動車、JX日鉱日石エネルギー(旧三菱石油)を経て現職。総合研究開発機構(NIRA)客員研究員(2015/9〜)、国際企業法務協会理事(2016年度)、『風観羽』ブロガー(ブログでの発言は所属する組織・団体とは関係ない)。






ページトップ