« Uniloc (US Patent No.5490216) | トップページ | ロシアのロボット小型戦車 »

2016年3月26日 (土曜日)

Tay

下記の記事が出ている。

 Tay: Microsoft issues apology over racist chatbot fiasco
 BBC: 27 March, 2016
 http://www.bbc.com/news/technology-35902104

 Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止
 Gigazine: 2016年3月25日
 http://gigazine.net/news/20160325-tay-microsoft-flaming-twitter/

(余談)

Tayが発言して暴言だと批判された内容を真理だと信じ切っている者は世界中に現実に何万人もいるし、リアルに暴力を行使する者となり得る状況が常に存在している。そのことに目を向けた方がよいと思う。

ちなみに,人間は,内心ではどのように思っていても,嘘をつくことや黙ることによって社会の平穏を乱さないようにしている。人工知能にもそのような機能を導入することは可能と思われるが,そうなると,人工知能の判断結果が嘘かもしれないということになるので,人工知能を利用すべき場面を相当限定的にとらえないとかなり危険だということになるだろう。

(余談2)

法学部の初学者には下記の書籍を読むように勧めているのだが,まともに読む学生がほとんどいないというのが悲しい現実でもある・・・

 末弘厳太郎『嘘の効用』
 http://www.aozora.gr.jp/cards/000922/files/45642_28592.html

|

« Uniloc (US Patent No.5490216) | トップページ | ロシアのロボット小型戦車 »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« Uniloc (US Patent No.5490216) | トップページ | ロシアのロボット小型戦車 »