脳の腐敗の伝染によるLLMのゾンビ化
世界に存在する情報の中で信頼性があり,使用に耐える情報はごく少数だ。もともと、大半の情報は内容が虚偽であるか無意味なものなので,学習の対象にならない。
人材という面でも,真に能力のある人材はごくごく稀にしか存在せず,大半は意味のあるレベルの創作力を最初からもっていないので何も創作しない。それゆえ,真に意味のある著作物も少ない。
そういう状況の下において,GPTはどんどん新たな偽情報をつくり出し続けており,そのような新たな偽情報も自動的に学習するので,LLMは,必然的に(自滅的に)劣化を深めていくことになる。
このことは,だいぶ前から各方面で述べていることだ。
こういうことを述べるのは私だけかと思っていたら,そうでもないらしく,下記の記事が出ていた。
AIの「脳」にも“腐敗”が起きる:研究結果
Wired:2025.10.28
https://wired.jp/article/ai-models-social-media-cognitive-decline-study/
この記事には,当たり前のことしか書かれていない。AIではなく人間であっても,優れた人と交際していると自然に自分の能力も向上するが,その逆の場合には逆になる。
それゆえ,LLMの全体としての劣化は今後も続くことになるだろう。しかも,他の研究機関や企業が苦労して開発したモデルを平気でパクるところが多数存在しているので,そのパクりの際にも「腐敗」がそのまま感染する。
私は,授業の中で,そのような劣化のことをゾンビ化と呼んでいる。AIの世界は,バイオハザード化するのだ。
軍用品における弾道計算のように,文字通りのフィードバックと補正処理の連続というような場合などを除き,LLMに未来はないので,(軍用AIと関連する投資の場合を除き)全ての投資を諦めるべきだろうと思う。
| 固定リンク

コメント