Tay
下記の記事が出ている。
Tay: Microsoft issues apology over racist chatbot fiasco
BBC: 27 March, 2016
http://www.bbc.com/news/technology-35902104
Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止
Gigazine: 2016年3月25日
http://gigazine.net/news/20160325-tay-microsoft-flaming-twitter/
(余談)
Tayが発言して暴言だと批判された内容を真理だと信じ切っている者は世界中に現実に何万人もいるし、リアルに暴力を行使する者となり得る状況が常に存在している。そのことに目を向けた方がよいと思う。
ちなみに,人間は,内心ではどのように思っていても,嘘をつくことや黙ることによって社会の平穏を乱さないようにしている。人工知能にもそのような機能を導入することは可能と思われるが,そうなると,人工知能の判断結果が嘘かもしれないということになるので,人工知能を利用すべき場面を相当限定的にとらえないとかなり危険だということになるだろう。
(余談2)
法学部の初学者には下記の書籍を読むように勧めているのだが,まともに読む学生がほとんどいないというのが悲しい現実でもある・・・
末弘厳太郎『嘘の効用』
http://www.aozora.gr.jp/cards/000922/files/45642_28592.html
| 固定リンク
コメント