« AIインフラの脆弱性 | トップページ | Vladimir Sviridov »

2023年11月18日 (土曜日)

弁護士が迂闊にChatGPTを利用すると,どういう結末があり得るか?

下記の記事が出ている。

 These lawyers used ChatGPT to save time. They got fired and fined.
 Washington Post: November 16, 2023
 https://www.washingtonpost.com/technology/2023/11/16/chatgpt-lawyer-fired-ai/

この種のAIシステムは,「まともな学者」や「まともな法律家」とは全く異なり,資料の信頼性や真正性や適法性などを検討することなく何でもかんでもパクってしまう。底本となっている資料を吟味・検討する能力は,もともと全くない。

そうであるからこそ,この種のAIシステムは,仮想敵国のスパイによって洗脳されてしまう危険性が常にあるとも言える。

この種のAIシステムは,自己の頭脳で考え,正しいか正しくないかを論理的に検討する能力がもともとないので,当たり前のことだと言える。

他方において,「何でもかんでもパクってしまう」ということは,この種のAIシステムが常に著作権法違反となる違法な存在であるということも意味している。

個人データ保護との関係においても同じことが言える。

 

[追記:2023年11月19日]

関連記事を追加する。

 AI is about to face many more legal risks. Here’s how businesses can prepare
 Fortune: November 9, 2023
 https://fortune.com/2023/11/08/ai-playbook-legality/

 

|

« AIインフラの脆弱性 | トップページ | Vladimir Sviridov »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« AIインフラの脆弱性 | トップページ | Vladimir Sviridov »