« Phantom Secure | トップページ | Finder »

2018年3月16日 (金曜日)

AI Profiling

下記の記事が出ている。

 Women must act now, or male-designed robots will take over our lives
 Guardian: 13 March, 2018
 https://www.theguardian.com/commentisfree/2018/mar/13/women-robots-ai-male-artificial-intelligence-automation

この記事では主に男女の性差による自動的な差別の問題が指摘されている。

しかし,AI Profilingは、男女の性差以外の全ての種類の差別を自動的かつ高速に助長・促進する危険性が高い。

そのような結果になることについて概括的・未必的な故意が常に肯定され得るので,そのようなシステムの開発者は,いずれ,法的責任を免れない立場に置かれることになるだろう。

特に,データ保護指令95/46/ECにも規則(EC) No 45/2001にもGDPRにもある(プロファイリングを含め)人間の人格的側面に関する自動的な判定(Automated individual decision-making)を拒否する権利,そのような判定がある場合に人間の関与を要求する権利の適用が現時点でも活発に議論されているけれども,今後,ますますもってこの関係の議論が盛んになることだろう。当然のことだと思う。

他方で,AI Profilingは,英米法におけるプライバシーの合理的な期待の範囲を急激に狭め消滅させつつある。合理的な期待が成立しないところにはプライバシーはない。それゆえ,英米法系のプライバシー関連研究者もその観点からの議論を盛んに行っている。

同様に,投資という側面における利益追求のみを考え,社会における公正の観点を欠く株主もまた,会社法の定める有限責任とは全く別に一般的な不法行為法に基づく損害賠償責任を負うことになる時代が必ずやってくる。商法学者は,そのような時代の到来を想定した上で,人類社会全体の公正に反するものである限り,それが根本理論の一部を構成するものであっても,それを放棄し,新たな理論構築をすべきだと思う。

このような規範が,縦割りの特別法的なものではなく,EUの情報関連法令全体における横断的なプロトコルの一種になっているという構造解析は,「情報社会の素描-EUの関連法令を中心として-(1)」の中で,総論として,明確に述べたことだが,今月末に刊行予定の「情報社会の素描-EUの関連法令を中心として-(2・完)」の中では,更に各論的に,「個人データ」の概念に関する発想の転換の必要性があることの論証を試みた。

|

« Phantom Secure | トップページ | Finder »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« Phantom Secure | トップページ | Finder »