MENU
BIZLAW BIZLAW
Powerd by LexisNexis®
BIZLAW
BIZLAW Powerd by LexisNexis®

RSS
Google+
Twitter
Facebook
HOME

AI・ロボット・自動運転の
法的実務の課題と対応の方向性
(その1)

弁護士・弁理士・米国弁護士 (芝綜合法律事務所) 牧野 和夫


3 米国政府の法的ルール(規制)作りへの対応

 本稿執筆時の2016年2月現在、米国ではまだ人工知能(AI)を直接に規制する法律・法律案は出ていないが、人工知能を利用したデバイスの取り扱いにつ取扱い的な規制が出てきている。具体的な例は次の4つだ(表3)。

 表3

1 ドローン 

連邦法レベルでは、2015年2月に、連邦航空局(Federal Aviation Administration:FAA)は、商業目的でのドローンの飛行について、原則禁止とし、筆記試験に合格したオペレーター(操縦者)に 限り55 ポンド(約 25 kg)までのドローンの商業的な飛行を認める規制案を公表した。ただし、高度 500 フィート(約 152 メートル)未満の飛行に限定されており、空港の近くやオペレーター以外の頭上を飛ぶことが禁止され、日中のオペレーターの視界の範囲内だけの飛行に限定されることになり、実際の商業的運用では制約が大きいと批判が出ている。他方、2015年11月に、娯楽目的のドローン購入・保有者に対しては、2016年2月までに登録を義務付ける方針を示した。米各州のレベルでは、過半数の州で規制法が続々出てきている。例えば、のぞき、重要インフラの空撮、武器利用、刑務所の空撮、警察の利用等を禁止する規制法である。

2 自動運転自動車

カリフォルニア州では、規制法案が出されているが、以下のすべてを要求するハードルの高い法案となっている。
①システム障害等緊急時に運転を代われる「運転免許を保持する人」の同乗義務
②第三者機関による車両の安全試験と認証
③性能・安全性・利用状況の定期的な報告義務
④個人情報の保護
⑤ハッキング対策を講じること

3  ビッグデータ、パーソナルデータ

ビッグデータ、パーソナルデータの利活用の側面からは、人工知能がハッカーに乗っ取られる事件が起こっていることから、こうしたハッキングに対処するために、米運輸省が主導し、自動車のサイバーセキュリティー強化でメーカー間(Ford、GM、Toyota、Honda、Nissan、Mazda、富士重工、三菱が参加)の協力を行うこととなった。

4 遺伝子・医療分野

米食品医薬品局(Food and Drug Administration:FDA)が人工知能ワトソンに対して規制を検討している。すなわちワトソンを「医療ソフトウェア」と見なして、FDAの監督の対象とし臨床試験を義務付ける法規制を課する検討をしている。それに対しIBM社は、こうした規制を緩和するためのロビー活動を連邦議会へ実施している。


4 日本政府はどのような対応を検討しているのか

 翻って、日本政府の取り組みはどうなのだろう? 以下の通り、各省庁の法規制の動向について見て行こう。

国土交通省
 ミラーレス車の公道走行を2016年6月に解禁する予定である。他方で、商用ドローンの法規制については、改正航空法を成立させ(2015年12月10日施行)、原則許可制(人口集中地区、空港周辺・150メートル以上の上空での飛行)とし、危険物の輸送、物の投下を禁止した。
 自動運転の実証実験が実施できるように2016年度中に指針を作成し、実験データの分析後2020年を目処に法整備の予定である。なお、国家戦略特区で「自家用車タクシー」を解禁する方針である。

経済産業省
 「IoT推進コンソーシアム」(座長:村井純・慶応大学教授)を立ち上げて、産学官連携、総務省と協力して活動を開始する予定である。具体的な活動としては、①企業間のデータ取引の契約条項例を検討したり、②プライバシー、や③知的財産の課題も議論する予定である。

厚生労働省
 安全衛生規則第150条の4(運転中の危険の防止)(2号通達)を改定して(「1 リスクアセスメントにより危険のおそれが無くなったと評価できるときは、協働作業が可がす」を加えた)、産業用ロボットが一定条件下で安全フェンスを設置せずに人間と一緒に作業することができるようになった。

総務省
 商用ドローンの法規制については、電波法を2016年夏頃に改正する予定であり、電波の出力規制を緩和(300m→5km,)すること、免許制度の導入を検討すること、新周波数帯域の割当てを行なうことを盛り込む予定である。さらに、「ゲノム情報」については、既に個人情報として扱う政府方針を打ち出し、個人情報保護法改正法の「個人識別符号」に含まれるものとした。


 このように日本では、各関連省庁が実際に法規制の動きを見せているが、重要な点は、国土交通省、経済産業省、総務省、厚生労働省がこうした従来の縦割り行政の弊害を、どこまで克服することができるかの点であろう。この点を克服すべく、日本政府が全国各地を「国家戦略特区」として指定することにより実証実験を次々と実施している。たとえば、政府は、千葉市を国家戦略特区と指定しAmazon社がドローン宅配を検討して 神奈川県の過疎地 DeNA社が無人を検討・クシー導入を検討している。なお、広島県、今治市、北九州市も外国人材受入と民泊の分野で国家戦略特区と指定している。


5 技術革新は法制度にどのような影を与えるか

 人工知能の技術革新に対応する新しい法制度の設計をどのように考えるべきだろうか。
 経済学と同様に、マクロ(ルール作りの原則、主義など)とミクロ(具体的に発生する法律問題の解決のためのルール作り)の観点から考えるべきと筆者は思う。

 アメリカの化学者で作家米国アイザック・アシモフ氏が1950年に発表したSF小説「われはロボット(I, Robot )の中で示した「ロボット工学3原則」と、新保史生 慶應義塾大学総合政策学部教授が提唱された「ロボット法新8原則」は、その意味では、マクロ的アプローチ(ルール作りの原則、主義など)と言えよう。それに対して、筆者は、基本的には、ミクロの観点(具体的に発生する法律問題の解決のためのルール作り)から以下検討してみたい。


【ロボット工学3原則】
第1条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第2条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第1条に反する場合は、この限りでない。
第3条 ロボットは、前掲第1条および第2条に反するおそれのないかぎり、自己をまもらなければならない。


 2015年10月に開催した「ロボット法学会準備会」において、上記「ロボット工学三原則」を踏まえて、慶応義塾大学新保教授が「ロボット法新8原則」を発表された。今後のロボット法の制度設計の議論を進めるため非常に有益な原則といえるが、その内容は以下のとおりである。


【ロボット法新8原則】
1. 人間第一の原則
2. 命令服従の原則
3. 秘密保持の原則
4. 利用制限の原則
5. 安全保護の原則
6. 公開・透明性の原則
7. 個人参加の原則
8. 責任の原則

 上記各原則については、具体的な説明がなされていないが、1と2は、おそらく「ロボット工学3原則」の第1条と第2条を再宣言されたもので、3~8は新保教授が付け加えられたものと思われる。ロボット法では、人工知能とそれをドライブするビッグデータが重要な役割を果たすことになるので、パーソナルデータ取扱いのルール作りが重要になってくるだろう。その観点で見ると、3~6は必須な原則と言えるだろう。さらに、8は誰に責任が帰属するべきかの議論となるが、ロボットが人間に従属することを前提とする限り、最終的にはそれを管理する人間が責任を負うことになるのだろうか。7個人参加の原則については、新保教授の補足説明を待ちたい。

 ここで、マクロ(原則、主義など)の観点から見た法的ルールの制度設計のありかたについて、ひとつだけ検討すべき重要なポイントがある。つまり、人間が道具として補助的に使っている段階を過ぎてしまい、シンギュラリティーが近づき、AIやロボットが人間のコントロールを離れたときに、どのような問題が起きるのか、という問題である。この点、筆者は、人間がAIを道具として支配し補助的に使っているのであれば、基本的には、現行法とその延長で対処できるのではないかと思う。結局は、AIを支配・管理する人間がその結果に対して責任を負うべきだからだ。それに対して、シンギュラリティーが近づき、AIやロボットが人間のコントロールを離れたときに、新しい法的ルールを考えるべきではないか、という問題がでてくる。あるいは、生命倫理の問題と同様に考えると、ロボット倫理の問題として、人間と類似な、もしくは人間の能力を超えるものをそもそも作ってはいけないのか、という問題が出てくる。

 AIやロボットが人間のコントロールを離れたときに、新しい法的ルールを考えるべきという観点からは、法整備が必要になる主な論点として、(権利・義務の帰属者としての)法主体をどのように考えるべきかを前提として、民事責任や刑事責任の問い方、プライバシー保護や知的財産の帰属の問題などがあるだろう。

 現在の法律では自然人(個人)か法人を権利義務や責任が帰属する「法主体」としているので、ロボットが自分で悪いことを学習して他人に損害を与えたとしても、基本的に現行法では、ロボットが直接に責任を負うことはない。ペットの管理者責任と同様に、ロボットを管理していた者(会社)のみが責任を負うことになるのだろうか。あるいは、製造者(ハード、AI)が責任を負うことになるのだろうか。次節で論じることにしよう。




1 2 3




ページトップ