« 麻薬に関連する法令はなぜサイバー法の一部なのか? | トップページ | 英国:Drone-hacking cybersecurity boot camp »

2016年11月 6日 (日曜日)

人工知能による判定処理を主体とするサービスやシステムがリコールになった場合

通常の製造物の欠陥に基づく損害賠償の範囲をはるかに越える損害について賠償責任が及ぶことになる可能性がある。

そのようなサービスまたはシステムを提供する者は,損害の範囲が非常に広範囲に及ぶ可能性があることを当然に予見することができるから,予見可能性がないものとして損害賠償責任を免れることができない(EUの報告書草案にもあるとおり,人工知能は,「自己学習能力」によって特徴づけられるものなので,「開発者が予想しない結果を招き得る」ということが開発者によって明確に認識された上で開発されるという奇妙な特性を有している。)。

この点に関しては,目下のところ,「いけいけどんどん」で人工知能システムの開発に対する投資を煽るような論調のものしかないという何とも嘆かわしい状況にあるのだが,もっと真剣に考えなければならないことだろうと思う。

もしそのシステムが国防のために用いられる場合には,国家が滅亡し,国民がジェノサイドされてしまう危険性があるということを想像すれば,その開発者の責任を一切軽減または免除してはならないという非常に当たり前の結論に達することができるであろう。

このような場合において,法人である企業だけではなくその取締役にも損害賠償責任が発生し得ることは現行法で定められているとおりなのだが,今後は,投資した株主に対しても何らかの損害賠償責任を負わせる方向で法理論の構築の努力が重ねられなければならない。

なお,同様のことは,現時点で既に普及しているクラウドサービスについても言うことができる。ここでは,特に約款による免責条項の無効のルールを消費者だけではなく事業者(とりわけ,個人事業者及び小規模事業者)に対しても及ぼすべき歴史的な必然性がある。

|

« 麻薬に関連する法令はなぜサイバー法の一部なのか? | トップページ | 英国:Drone-hacking cybersecurity boot camp »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« 麻薬に関連する法令はなぜサイバー法の一部なのか? | トップページ | 英国:Drone-hacking cybersecurity boot camp »