2018年9月18日 (火曜日)

技術的中立性

これまでは「技術的中立性」の概念を一応維持できてきた。

それは,機械装置が自律的に行動決定する機能をもっていなかったからだ。

例えば,ナイフは,料理に使用することもできるし,殺人に使用することもできるが,それ自体としては単なる道具に過ぎない。

しかし,これからはそうではない。

特に,AIの技術を応用したネット空間は,それ自体として,中立ではなくなる。

それゆえ,産業界においても,「技術的中立性」の概念を用いて自らを防御することが困難または不可能となる時代に入ったことを理解すべきである。

| | コメント (0)

カナダ:自律的に自己成長するロボットに関して製造物責任法等の既存の法令を適用することは難しいとの見解

下記の記事が出ている。

 It’s hard to sue a robot: product liability considerations and AI in Canada
 Canadian Lawyer: September 17, 2018
 https://www.canadianlawyermag.com/author/lisa-r-lifshitz/its-hard-to-sue-a-robot-product-liability-considerations-and-ai-in-canada-16207/

自律的な存在であるロボット(robots)は、ISO及びJISによって制御可能であることが義務づけられている産業用ロボット(robotics)とは異なり,本質的に人間による制御ができない。逆に,人間が制御できない存在でなければ,自律型(autonomous)であるとは言えない。

だからこそ,その研究・開発・設計・原料の提供・製造(有機体ロボットに関しては増殖)・販売をした関係者の全部について,無限定の連帯責任として損害賠償責任を負わせる必要があるというのが私見だ。

この点に関しては,このブログだけではなく,論文や関連参考訳の解説部分等で既に詳論してきたとおりだ。

なお,EUの関連政策文書を読むと,司法裁判所の判例法を踏まえ,製造者ではない運用者(サービスプロバイダ)には製造物責任法令が適用されないとしており,この点に関して製造物責任指令の改正はなさそうだ。

しかし,EU及びその構成国の法制において,サービスプロバイダは,損害賠償責任を全く負わないのではなく,当然のことながら,民法上の債務不履行責任または不法行為責任を負う。この場合,被害者は,一般原則に従い,過失の立証責任を負う。

製造物責任法制の眼目は「過失の立証責任の転換」にあるので,当然と言えば当然の帰結かもしれない。

部分的にちょっとかじっただけで専門家面をしている(偉そうな)人々が相当異なる意見を書いたりしているのを見かけることがあるが,失笑を禁じ得ない。

| | コメント (0)

ANSI:ブロックチェーン及び人工知能(AI)の法律問題に関する討議

下記のイベントが開催される。

 ANSI Legal Issues Forum: Legal and Ethical Issues of Artificial Intelligence
 Tuesday, October 16; 12:30 pm – 4:30 pm
 FHI 360 Conference Center, 1825 Connecticut Ave. NW, 8th Floor, Washington, DC
 https://www.ansi.org/news_publications/news_story?menuid=7&articleid=d7ebed90-b6c6-449c-af9f-1acfbc355adb

| | コメント (0)

2018年9月17日 (月曜日)

AIはソーシャルメディアを変化させ,民主主義を危機に晒すものか?

下記の記事が出ている。

 Artificial intelligence is transforming social media. Can American democracy survive?
 Washington Post: September 5, 2018
 https://www.washingtonpost.com/news/democracy-post/wp/2018/09/05/artificial-intelligence-is-transforming-social-media-can-american-democracy-survive

(余談)

「言葉」に対する信頼が喪失した状況では,旧約聖書にある「バベルの塔」と同じような混乱と社会の崩壊が生じ得ると考えられる。

その「信頼」は,あるメッセージが生きた人間のものかどうか判然としない状態が恒常的になるだけで,かなり広範に損なわれることになるであろう。その信頼を回復することは非常に難しい。

解決策としては,言語活動におけるAIの応用(特に商業利用)を禁止することが考えられるが,基本的に無理なことなので,結局,防止策はない。

| | コメント (0)

2018年9月16日 (日曜日)

仮想通貨投資を名目とする単純な詐欺

下記の記事が出ている。

 Fake-cryptocurrency Ponzi scheme lands creator in prison
 ars technica: September 14, 2018
 https://arstechnica.com/tech-policy/2018/09/man-who-swindled-9m-in-wannabe-bitcoin-ponzi-scheme-headed-to-prison/

| | コメント (0)

2018年9月15日 (土曜日)

いわゆる仮想通貨のブームは終わりか?

下記の記事が出ている。

 Tech Tent: Has crypto-currency peaked?
 BBC: 14 September, 2018
 https://www.bbc.com/news/technology-45526365

 Cryptocurrency market cap shrinks to lowest level this year
 Mashable Asia: 12 September, 2018
 https://mashable.com/article/crypto-market-cap-lowest-2018/

[追記:2018年9月17日]

関連記事を追加する。

 Bitcoin Bloodbath: News From Goldman Sachs Is Behind Today's Plunging Cryptocurrency Prices
 Fortune: September 6, 2018
 http://fortune.com/2018/09/06/bitcoin-crash-goldman-sachs-cryptocurrencies/

| | コメント (0)

サイバー攻撃が次の金融危機のトリガーとなるリスクが高まっている?

下記の記事が出ている。

 How a Cyber Attack Could Cause the Next Financial Crisis
 Harvard Business Review: September 14, 2018
 https://hbr.org/2018/09/how-a-cyber-attack-could-cause-the-next-financial-crisis

 A cyberattack could trigger the next financial crisis, new report says
 CNBC: 13 September, 2018
 https://www.cnbc.com/2018/09/13/a-cyberattack-could-trigger-the-next-financial-crisis.html

(余談)

EUでは,既にその可能性を認識しており,その対策として,大量の関連法令が制定・改正され,大量の政策文書が公表されている。

ところが,このような関連文書をしらみつぶしに精読しようとする法学者がいない。仕方がないので,この分野に関しても,「私がやるしかないか・・・」と思い,可能な範囲でコツコツと勉強を続け,参考訳を作成して提供し続けているのだが・・・その効果があるかどうかは全くわからない。

それにしても,ごく少数の例外を除き,現実にはソースコード,仕様書,設計図等を全く読めない弁護士や裁判官ばかりなので,在来の司法制度の運命は既に尽きている可能性が高い。

私のような極めて凡庸な人間でも長年の努力の蓄積により達成できていることをどうしてやろうとしないのか,理解に苦しむ。

例えば,法学者がソースコードを読めない場合,現時点では社会生活の実質の大部分が既にそうなってしまっているコンピュータによる自動処理と関連する様々な法令の意味するところを理解することも不可能ではないかと思う。具体的な訴訟事件等において,本当はどちらが勝者でどちらが敗者なのかを正しく評価することもできない。そして,在来のソフトウェア技術におけるソースコードを理解できないのであれば,それとは異なるメカニズムに依拠するタイプのAI技術との相違を正常に理解することもできない。ガイドラインのようなものの原案を書くとしても,既存の(実は既に陳腐化しており,次の10年間のためには全く役にたたないものとなっている)ビジネス上のプラクティスのみを想定する以外に手がないことになる。

簡単に言えば,現代社会においては,一般に,理系と文系の区別は,単に無意味であるというだけではなく,かなり有害である。

科目の細分化,及び,それに基づく極めて限定された些末な分野しか理解できない非力な研究者の育成(学位の授与)を禁止または抑制することが日本国政府においても急務となっている。

| | コメント (0)

自動走行自動車技術の標準化?

下記の記事が出ている。

 VW in talks on self-driving car standards: report
 REUTERS: September 14, 2018
 https://uk.reuters.com/article/us-volkswagen-autonomous/vw-in-talks-on-self-driving-car-standards-report-idUKKCN1LU1PC

(余談)

標準化が進んだ場合,そのことは,同時に,その分野における人工知能研究の制約条件が増えることになることを意味する。

その結果,主要な研究者や開発者の多くが,(より効率的により多くの敵を制圧するという制約条件以外には)特に制約条件のない軍事用自動走行車両等の研究分野に移動してしまうことが十分に予想される。

| | コメント (0)

2018年9月12日 (水曜日)

米国:Initial Coin Offerings (ICO)の違法性に関する判断

下記の記事が出ている。

 Judge rules cryptocurrency ICO scam case falls under securities law
 ZDNet:  September 11, 2018
 https://www.zdnet.com/article/judge-rules-cryptocurrency-ico-scam-case-falls-under-securities-law/

| | コメント (0)

自動走行自動車の開発競争は,今後どのようになっていくか?

下記の記事が出ている。

 The Latest Battleground for Chipmakers: Self-Driving Cars
 Wired: September 11, 2018
 https://www.wired.com/story/latest-battleground-for-chipmakers-self-driving-cars/

 Autonomous cars need to think more like humans, less like machines
 Fast Company: September 11, 2018
 https://www.fastcompany.com/90231475/perceptive-automata-helps-self-driving-cars-think-like-humans

| | コメント (0)

より以前の記事一覧