AI decision-making
下記の記事が出ている。
Inside the black box: Understanding AI decision-making
ZDNet: December 1, 2016
http://www.zdnet.com/article/inside-the-black-box-understanding-ai-decision-making/
(余談)
AIには,それ自体として,内在する危険性がある。それを認めないのも学問の自由に入るのかもしれない。
しかし,AIが社会の中で応用されれば必ず危険が顕在化するので,実害が発生したときにはその開発者は製造物責任として損害賠償責任を負う。
「AIには危険が内在されていること」は誰でも知っている常識の一部なので(それを知らないとすれば,相当の馬鹿である。知っていて「危険がない」という者は嘘つきまたは犯罪者である。),常に予見可能の範囲にある。
それゆえ,開発者が開発危険の抗弁を主張したとしても,その主張は裁判所によって常に排斥される。例外はない。
したがって,AIの研究者は,あくまでも理論研究や実験室内での実験の範囲内にとどめるものとし,その成果を社会の中で絶対に応用・実装させないように最大限の努力を払うべきである。そうすれば,裁判所も少しは許してくれることだろう(ただし,完全な免責は,決してない。)。
(余談2)
EUの個人データ保護指令95/46/EC及び一般個人データ保護規則(EU)2916/679の中には自動的な個人の判定の禁止に関する条項がある。
このような自動的な個人の判定を実施する場合には,厳格な要件を遵守した上で,もしそのような自動的な判定を拒否するデータ主体がある場合には,人間による判定に切り替えなければならない法律上の義務がある。
このような禁止は,AIを含め,電子計算機またはネットワークシステムによる自動的な判定には危険が内在しているというEUの立法者の認識を明確に反映していると言える。
それゆえ,「AIには危険性がない」と主張することは,EUの委員会に対して,「我国は十分性の要件を満たす気が全くない」と声高に叫んでいるようなものだと思う。
賢い為政者は,決してそのような誤解を招く行動を採ってはならない。
| 固定リンク
« AIによってプログラマやデザイナの仕事は消滅するか? | トップページ | 機械装置による自動学習では,攻撃によるインシデントがあっても,「事実」としてそれを学習してしまい,なぜそれが起きたのかを検討して防御に役立てようとはしない? »
コメント