自律的な(autonomous)学習機能をもつ人工知能(AI)のリスク?
下記の記事が出ている。
The hidden risk of blind trust in AI’s ‘black box’
CIO: July 6, 2017
http://www.cio.com/article/3204114/artificial-intelligence/the-hidden-risk-of-blind-trust-in-ai-s-black-box.html
自律的な学習と判断を実行することのできるAIシステムは,プログラムによる制御に服するものではなく,その処理過程の追跡をすることもできないので,もともと,人間に従属するシステムではない。いずれ,人類を物理的に消滅させるためのシステムに成長する可能性は十分にある。
現在の大学の工学部等で教えているAIの技術の中には,そのような意味での本来のAIとは相当異なるプログラミングを教えているところが少なくないので誤解が蔓延しているのかもしれないが,「制御できる」という観念は,不勉強に基づく誤解の一種に過ぎない。
自律型コンピュータに必要なのは,より集積度の高い神経回路網的なアーキテクチャと高密度の処理に伴う疲労的現象からの回復の仕組みの開発,そして,ショートカットの誘導の仕組みの開発,思考の破綻が発生する危険性があるときには処理を停止してしまうサーキットブレーカー的な機能の開発である。それによって,より生物の脳組織(神経索)内での化学反応に近い処理を実現することができる。
論理プログラミングの勉強は,過去の開発史を認識するための教養の一種として積んでおくにこしたことはないが,現時点におけるAIの開発にとっては全くもって不可欠のものではない。むしろ,生のデータを可能な限り多く,とにかくひたすら蓄積し続けるほうが,結果的に生産性が高い。
すると,自律的な機能をもつ真のAIは,それ自体がリスクであると考えるよりも,それがどのようなものであるのかを理解しようとしない人間の存在のほうがリスクであると考える方がビジネスの合理的な遂行のためには妥当であるという結論になる。
理解する能力のない経営陣や幹部従業員を全員解雇して全て交換してしまうのが最もてっとり早い方法ではないかと思う。それと同時に,理解する能力のない株主の権利行使や労働組合の権利行使を全面的に禁止するような法的方策も検討しなければならなくなることだろう。
少なくとも,経営コンサルタント的な人工知能システムは,そのように回答するのに違いない。
| 固定リンク
« Europol & EUIPO: 2017 Situation Report on Counterfeiting and Piracy in the European Union | トップページ | 大長谷若建命 »
コメント