2017年7月3日

  • このエントリーをはてなブックマークに追加
  • copy

ドイツ、自動運転のアルゴリズム規則枠組みを答申、人間保護優先を明確化

ドイツ、自動運転のアルゴリズム規則枠組みを答申、人間保護優先を明確化

自動運転車のアルゴリズム規則制定に向けてドイツのアレクサンダー・ドブリント交通相が設置した倫理委員会は20日、答申書を提出した。自動運転車ではこれまで運転手が担ってきた責任をシステムが引き受けることになるため、倫理や法律上の新たな問題が浮上。同委はこうした問題に対応するための法規制の大枠を提言した。

この記事の続きを読む

   
倫理委をは昨年9月に発足した。自動運転システムのアルゴリズムがどういう状況でどのように判断するべきかという人の命に直接関係する問題を検討することから、委員会には経済界のほか、法律家、哲学者、神学者、消費者保護団体の代表も任命された。委員長は憲法裁判所のウド・ディ・フォビオ元裁判官が務めた。
  
倫理委は今回の答申で、自動運転車の普及により交通事故死者の数が減る見通しを指摘し、自動運転車を支持できるとしたうえで提言を行った。
 
提言に当たってはまず、「自己決定の自由」という哲学者カントの命題に基づいて問題を提起。2つの悪のなかから1つを選択しなければならない「ジレンマ状況」の具体例として、海沿いの崖路を走行中の路上で複数の子供が遊んでいるのを認識した場面を提示した。
 
運転手はこの場合、道路から海に転落して岩礁にぶつかり死亡するか、自分の命を優先して子供たちを轢くかのどちらかを選択しなければならないと指摘。自動運転車では本来は人間が自由意志で行うこうした選択を人工の産物であるプログラムに委ねることになると強調した。プログラムの作成者は基本的な社会のコンセンサスに基づいてプログラムが倫理的に“正しい”決定を行えるようにするという課題に取り組むことになる。
  
倫理委はこうした認識に立って、交通事故が避けられない状況について、そうした状況が起きないように努めることをメーカーは義務づけられるとしながらも、現実には事故が不可避の状況があり得るという前提に立ち、アルゴリズムはそうした場合、物や動物でなく人間の保護を優先しなければならないと強調した。被害者となる可能性のある人を老人か子供か、男性か女性かなどといった基準で区別することなく全員を平等に認識することもプログラムの前提条件だとしている。
 
同委はまた、他の人々を救うために一人の人物を犠牲にするようなプログラムも許されないとの立場を示した。個人を「神聖不可侵」とする近代社会の前提となる人間観に反するためだ。ただその一方で、複数の人の命が危険にさらされた状況下では犠牲者を可能な限り少なくすることは「是認できるように思われる」との見解も示した。この考えは一人を犠牲にして他人を救うという考えとの線引きが現実の状況では難しいことから、委員会内で意見がまとまらず、答申書はさらなる調査が必要だと記している。
 
 
走行データを提供するかの決定権は持ち主に
 
走行データの記録を義務づけることも提言した。事故の責任が運転者とシステムのどちらにあるのかを明確化するためには走行データが必要なためだ。
 
走行データを企業などに提供するかどうか、およびその利用を認めるかどうかについては、車両の持ち主ないしドライバーが自ら決定するルールを提言している。
 
倫理委はさらに、交通参加者が全面的に監視されたり自動運転車がハッキングされるリスクを確実に排除できない場合、すべての車両をネットワーク化し一元的に制御することは倫理的に問題だとの見解を提示した。
 
今回の提言は主に、現時点で実用化されていない完全自動運転車とドライバーレス・カーを想定したもので、独自動車工業会(VDA)は「自動車メーカーとサプライヤーの開発部門に開発に必要な枠組みと手がかりを与える」ものだとして、歓迎の意を示した。
   
ソース:http://fbc.de/sc/sc39968/
 
>>あわせて読みたい 『BMWが自動運転車「iネクスト」を独工場で生産、21年下半期に発売』
  
ドイツニュース一覧▶https://www.digima-news.com/category/country/europe/germany

 

この記事の提供会社

logo

FBC Business Consulting GmbH

http://fbc.de/

メルマガ会員  
 

出島