2017年2月26日 (日曜日)

米国:Uber経営陣の基本姿勢に反対する訴訟や知的財産権侵害と関連する訴訟が多発か?

下記の記事が出ている。

 Uber's mess reaches beyond sexism - and Silicon Valley
 BBC: 25 February, 2017
 http://www.bbc.com/news/technology-39065526

 Uber in-house counsel under scrutiny after alleged harassment of female engineer
 Legal Week: February 22, 2017
 http://www.legalweek.com/sites/legalweek/2017/02/22/uber-in-house-counsel-under-scrutiny-after-alleged-harassment-of-female-engineer/?slreturn=20170125192723

 Google lawsuit could be a fatal setback for Uber's self-driving dreams
 Guardian: 25 February, 2017
 https://www.theguardian.com/technology/2017/feb/25/uber-google-lawsuit-self-driving-car-threat-anthony-levandowski

| | コメント (0)

2017年2月13日 (月曜日)

American Spies

下記の記事で紹介されていた。

 American Spies: how we got to age of mass surveillance without even trying
 ars technica: February, 2017
 https://arstechnica.com/tech-policy/2017/02/american-spies-how-we-got-to-age-of-mass-surveillance-without-even-trying/

Amazonのサイトで検索してみたところ,まだ発売されていないようで,予約受付中になっていたので,早速予約することにした。

研究費が枯渇していて苦しいのだが,どうにか頑張るしかない。

| | コメント (0)

2017年2月10日 (金曜日)

米国:TSAの行動監視システムは無意味であるとして,ACLUが批判

下記の記事が出ている。

 TSA knows its airport behavior detection program is ineffective
 ars technica: February 10, 2017
 https://arstechnica.com/tech-policy/2017/02/tsa-knows-its-airport-behavior-detection-program-is-ineffective/

| | コメント (0)

2017年1月31日 (火曜日)

Linnet Taylor, Luciano Floridi & Bart van der Sloot (Eds.), Group Privacy: New Challenges of Data Technologies

下記の書籍が届いたので,仕事を中断してざっと読んだ。

 Linnet Taylor, Luciano Floridi & Bart van der Sloot (Eds.)
 Group Privacy: New Challenges of Data Technologies
 Springer (2017)
 ISBN-13: 978-3319466064
  http://www.springer.com/us/book/9783319466064

問題意識は,従前から指摘されてきたもので,『電子商取引法』(勁草書房)の第3章(分担執筆)で既に指摘しているものだ。すなわち,「個人」の本質にかかわる問題を取扱っている。

それだけであれば特に目新しいものではないのだが,現実の問題としてどのような場面において従来のような単純な個人データ保護のアプローチでは失敗してしまうのかについて,主として欧州における状況を前提とした上で,具体例としてはビッグデータにおける要素解析を中心にとりあげながら,多角的に検討しており,勉強になる。

Floridiの分担執筆部分では,一般的な定式化を試みた上で,一般データ保護規則GDPRの適用のための解釈論としての試みが展開されており,非常に興味深い。私個人としては,GDPRの解釈論もさることながら,理事会決定2009/936/JHA及び理事会決定2009/936/JHAの問題点をより深く認識するために役立った。

また,本書では参考文献等の記載が充実しており,更に深く研究したいと考えている研究者にとってはレファレンスとしての有用性の高い書籍となっていると思う。

個人データやプライバシーと関連する分野の研究者であれば,一度は目を通しておくべき書籍だと評価することができる。

| | コメント (0)

2017年1月29日 (日曜日)

「人工知能による自動的な判断には規制が必要か?」に関する議論

下記の記事が出ている。

 AI watchdog needed to regulate automated decision-making, say experts
 Guardian: 27 January, 2017
 https://www.theguardian.com/technology/2017/jan/27/ai-artificial-intelligence-watchdog-needed-to-prevent-discriminatory-automated-decisions

| | コメント (0)

2017年1月18日 (水曜日)

ロボットに法人格を与えることは非常に危険な考え方だとの見解

下記の記事が出ている。

 Giving rights to robots is a dangerous idea
 Guardian: 18 January, 2017
 https://www.theguardian.com/technology/2017/jan/16/giving-rights-to-robots-is-a-dangerous-idea

(余談)

法学部の「サイバー法」の2016年度秋期の授業では,ロボットに法人格を与えることのできる可能性及びその問題点について説明する講義を何度か試みた。

その最終回では,現在のクラウドとネットワーク型AIとではどのような点が同じでどのような点が異なるのかについても説明した。

なかなか面倒な問題なのだが,結局は,「人間至上主義」を捨てることができるか否かによって態度決定が異なることになり,しかも,ユダヤ教またはキリスト教を信じるか否かで相当異なる思考経路をたどることになるというのが私の見解だ。

信教の自由は保障されなければならないので,結局,議論が収束することはあり得ない。その間に,人工知能は着々と支配権を広げることになる。

| | コメント (0)

2017年1月15日 (日曜日)

Michael Geist (Ed.), Law, Privacy and Surveillance in Canada in the Post-Snowden Era

下記の書籍を読んだ。ネット上でPDFで公開されているが,念のために印刷された書籍も購入した。

 Michael Geist (Ed.)
 Law, Privacy and Surveillance in Canada in the Post-Snowden Era
 University of Ottawa Press (2015)
 https://www.ruor.uottawa.ca/bitstream/10393/32424/1/9780776621838_WEB.pdf

編者であるMichael Geistも分担執筆しており,一番肝心なところをちゃんと指摘している。さすがだと思う。

個人情報保護(個人データ保護)の法理論については,様々な学説があるけれども.EUの関連法令を片っ端から全部読むということでとにかく寝る時間を惜しんで読み続け,翻訳できるものは翻訳しながら考え続けた結果,従来の日本の法学における通説は,かなりおかしいということに気づくことができた。たぶん,従来の日本の通説は,EUの関連法令及び世界の主要な関連法令の条文を全て網羅的に精読しないで学説を構築してしまっている。共同研究では全くダメで(場合によっては弊害が大き過ぎることさえあるので),同一人がその困難な研究をこなさなければならない。

これまでの研究結果については,時間をみつけて,少しずつ論文にまとめ,公表したいと思う。

もし生き続けることができたなら,少なくともあと4年はプライバシーと関連する研究を続け,従来の学説の誤りを全て除去した上で,何をどう考えるべきなのかについて私見を明らかにしたいと思う。

その後で,定年退職までの残りの5年の時間を使って,若い頃からずっと考え続けてきた課題について,私なりの答えを出そうと思う。

| | コメント (0)

2017年1月13日 (金曜日)

EU:人工知能ロボットの法主体性と人権-欧州議会が報告書案を採択

下記の記事が出ている。

 Give robots 'personhood' status, EU committee argues
 Guardian: 12 Hanuary, 2017
 https://www.theguardian.com/technology/2017/jan/12/give-robots-personhood-status-eu-committee-argues

報告書案は,下記のところにある。

 Draft Report with recommendations to the Commission on Civil Law Rules on Robotics
 http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//EN

(余談)

自律型ロボットに対して法人格を与えるという研究論文は既に幾つか存在している。

一応,全部収集して読んでいる。

日本法に則していうと,「法人」の一種として法主体性を認めるということになるのだろう。

その場合問題となるのは,他の法人との人格の競合の問題だ。

とりわけ,ネットワーク型の人工知能システムの場合にはそうで,「override」の問題が無数に生ずることになる。

しかし,従来の日本の古典的な民法学や商法学においては,法人論それ自体としては,人間が組織し運営する法人のみを対象する研究しかなされてこなかったため,いずれも無力だと断定できる。

私が1997年に刊行した『ネットワーク社会の文化と法』の中において主張している「処理主義」の理論に基づいて考察するのがベターである。

なお,一般に,この分野における学術研究は,サイバー法及び情報法の研究者によって行われるべきであるが,その必須の前提として,その研究をする者は,法哲学,民法解釈学,会社法解釈学,民事訴訟法解釈学及び民事執行法解釈学の全てに精通していることを要する。

単なる思い付きだけで空想的な理論体系を構築することは非常に危険なことだ。

[追記:2017年1月14日]

関連記事を追加する。

 MEPs vote on robots' legal status - and if a kill switch is required
 BBC: 12 January, 2017
 http://www.bbc.com/news/technology-38583360

 Robots need rights, and kill switches too, warn politicians
 ZDNet: January 13, 2017
 http://www.zdnet.com/article/robots-need-rights-and-kill-switches-too-warn-politicians/

日本国の総務省でも検討が進められているが,「kill switch」を「must」のものとして実装することを要件とする内容とせざるを得ないだろうと思う。

しかし,完全に自律型のロボットの世界では,「kill switch」はまるで無意味だ。

自律学習によって「kill」の方法を学んでしまうと,自律型ロボットが「kill switch」の「kill switch」を自動生成して自己実装してしまうことになるからだ。

| | コメント (0)

2017年1月 5日 (木曜日)

米国:政権交代によりプライバシー保護の法政策に変化か?

下記の記事が出ている。

 It’s begun: Internet providers are pushing to repeal Obama-era privacy rules
 Washington Post: January 4, 2017
 https://www.washingtonpost.com/news/the-switch/wp/2017/01/04/its-begun-cable-companies-are-pushing-to-repeal-obama-era-internet-privacy-rules/

| | コメント (0)

2016年12月27日 (火曜日)

AI decision-making

下記の記事が出ている。

 Inside the black box: Understanding AI decision-making
 ZDNet: December 1, 2016
 http://www.zdnet.com/article/inside-the-black-box-understanding-ai-decision-making/

(余談)

AIには,それ自体として,内在する危険性がある。それを認めないのも学問の自由に入るのかもしれない。

しかし,AIが社会の中で応用されれば必ず危険が顕在化するので,実害が発生したときにはその開発者は製造物責任として損害賠償責任を負う。

「AIには危険が内在されていること」は誰でも知っている常識の一部なので(それを知らないとすれば,相当の馬鹿である。知っていて「危険がない」という者は嘘つきまたは犯罪者である。),常に予見可能の範囲にある。

それゆえ,開発者が開発危険の抗弁を主張したとしても,その主張は裁判所によって常に排斥される。例外はない。

したがって,AIの研究者は,あくまでも理論研究や実験室内での実験の範囲内にとどめるものとし,その成果を社会の中で絶対に応用・実装させないように最大限の努力を払うべきである。そうすれば,裁判所も少しは許してくれることだろう(ただし,完全な免責は,決してない。)。

(余談2)

EUの個人データ保護指令95/46/EC及び一般個人データ保護規則(EU)2916/679の中には自動的な個人の判定の禁止に関する条項がある。

このような自動的な個人の判定を実施する場合には,厳格な要件を遵守した上で,もしそのような自動的な判定を拒否するデータ主体がある場合には,人間による判定に切り替えなければならない法律上の義務がある。

このような禁止は,AIを含め,電子計算機またはネットワークシステムによる自動的な判定には危険が内在しているというEUの立法者の認識を明確に反映していると言える。

それゆえ,「AIには危険性がない」と主張することは,EUの委員会に対して,「我国は十分性の要件を満たす気が全くない」と声高に叫んでいるようなものだと思う。

賢い為政者は,決してそのような誤解を招く行動を採ってはならない。

| | コメント (0)

より以前の記事一覧