« モスクワの新年 | トップページ | 北朝鮮:核弾頭を搭載したICBMを量産か? »

2023年1月 2日 (月曜日)

Overfitting

下記の記事が出ている。

 学習データに最適化されすぎて本来の目的が達成できなくなる「過学習」と同様の現象はAIだけでなく社会全体で起こっているという主張
 GIGAZINE: 2023年1月1日
 https://gigazine.net/news/20230101-overfitting-machine-learning-goodharts-law/

ここで述べられていることは,それ自体としては普通に言われていることであり,必ずしも間違いではないのだが,根本的なところで本質を見逃しており,空虚な論説となっている。

「ある特定の系の中で収束する」という前提を捨てなければならない。

この前提を捨てると,全てが放散してしまうので,「解を得ることができない」または「解の正当性を検証できない」という状況が必ず発生する。

解のように見えるものは常に「単なる仮説」に過ぎないのだ。

これは,小学生でも理解できる常識の範囲内にあることだ。

それがわからないで小手先の技術や工学的理論を少し使えるだけなので,どうやっても失敗する。

***

一般に,過剰適応や過剰最適化が「悪」であることは,社会生活上では明らかだ。それしかできず,融通が利かない。応用力はゼロ。

例えば,大学受験予備校教育に過剰適応し,最適化された者は,既に廃人同様になっており,大学生活中に良い教授と出会って自らの生き方を根本的に修正することがない限り,大学の学業においても社会人になっても,全く使い物にならないことが多い。

それゆえ,司法試験等の高度な能力を要求する資格試験では,「予備校で勉強したことがない」及び「家庭教師から教えられたことがない」を受験要件にしたらよいと思う。

予想としては,自由人や遊び人のほうが一般的な自己習得能力が非常に高いという結果になるだろう。

|

« モスクワの新年 | トップページ | 北朝鮮:核弾頭を搭載したICBMを量産か? »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« モスクワの新年 | トップページ | 北朝鮮:核弾頭を搭載したICBMを量産か? »