« 米国:選挙妨害のためのサイバー攻撃の脅威が高まっている? | トップページ | LLMjacking »

2024年10月18日 (金曜日)

Microsoft's Copilot chatbotの信頼性は低いとの判断

下記の記事が出ている。

 Expert witness used Copilot to make up fake damages, irking judge
 ars technica: 2024年10月15日
 https://arstechnica.com/tech-policy/2024/10/judge-confronts-expert-witness-who-used-copilot-to-fake-expertise/

***

あくまでも一般論だが,AIが全ての知識を学習したと仮定した場合において,その知識全てが誤りであるときは,そのAIは同じ誤りを拡大再生産し続けるだけであり,少しも真理に近づかない。

(学術上の通説を含め)従来の常識が根底から全部間違っており,全部破棄してしまわなければならないということを多くの人々が理解できるようになるためには,それ相応の時間がかかる。

もともと真理とはそのようなものなのだが,そのことを理解し,即座に頭脳を切り替えることができるだけの脳機能をもつ人間の発生確率はそう高いものではない。

私は,大学の講義の中では,ガリレオ・ガリレイを例に出してこのことを説明している。

ちなみに,AIの関係に限らず,そもそも,真理というものは,それを知っている者以外の誰にも悟られないようにそれを知っている者の脳内だけに格納された状態になっているのが普通であり(←そうしないと圧倒的多数の暗愚な人々によって殺されるリスクがある。),一般的には周知されることがない。

 

|

« 米国:選挙妨害のためのサイバー攻撃の脅威が高まっている? | トップページ | LLMjacking »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« 米国:選挙妨害のためのサイバー攻撃の脅威が高まっている? | トップページ | LLMjacking »