« Secure AI Framework (SAIF) | トップページ | AI Chatbotのコストは誰が負担することになるのか? »

2023年6月11日 (日曜日)

ChatGPTを利用する弁護士は破滅する?

下記の記事が出ている。

 The ChatGPT Lawyer Explains Himself
 New York Times: June 8, 2023
 https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html

ChatGPTを信用せず,自分の能力と努力だけを信じる弁護士は,今後もちゃんと仕事ができる。

しかし,弁護士自身がしっかりしていたとしても,普通の判例データベースサービスを提供している企業や裁判所等が安易にAI技術の応用利用をするかもしれないということから問題が生じ得る。弁護士が「普通の判例データベース」だと信じて利用しているにも拘わらず,実は,GenerativeAIシステムによって自動生成された要旨を出力するシステムであり,かつ,出力される要旨に誤りや(自動生成された)虚偽が含まれている可能性があるからだ。

それゆえ,今後は,判例データベースサービスを提供する企業や裁判所等は,AIの機能を一切使用していないことを宣言し,そのようにシステムを維持するために最大限の努力を尽くすべきだと思われる。

そして,そのような努力は,AIによって自動生成されたテキストが「虚偽や誤りや偏向的評価結果等を一切含まないテキストであること」が自動的に完全に検証可能な時代となるまで継続されるべきだ。

ちなみに,相当に優秀な人間が作成する場合であっても,「虚偽や誤りや偏向的評価結果等を一切含まないテキスト」を作成することは至難の業だと言える。なにしろ,そもそも人間の思考は偏向と偏見と錯覚に満ちており,それから逃れることができない。

そのような偏向と偏見と錯覚から逃れることが可能なほぼ唯一の領域は,完全な公理と定義が事前に人工的に設定されている数学の分野だけだと言える。

だからこそ,数学ベースでAI技術の開発・運用とかかわる者は,必ず失敗する。

現実の世界は,人間によって事前に人工的に設定されていないからだ。

 

[追記:2023年6月22日]

関連記事を追加する。

 Financial and legal professionals see the value in generative AI, according to a study
 ZDNet: June 21, 2023
 https://www.zdnet.com/article/financial-and-legal-professionals-see-the-value-in-generative-ai-according-to-a-study/

この記事でいう「professionals」とは「職業人」という意味しかなく,高度な専門的能力をもつという意味を含まない。誰でもできる低レベルの仕事でも資格等が要求されるときは資格をもつ「professionals」だけがその業務に従事できる。

それは,ギルドの利益を守るための政治的圧力によってそのようになっていることもあり得る。

結局,「資格で縛る必要性のある業務かどうかの判断基準の見直しが必要になってきている」ということしか意味しないのではないかと思う。

 

 

 

|

« Secure AI Framework (SAIF) | トップページ | AI Chatbotのコストは誰が負担することになるのか? »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« Secure AI Framework (SAIF) | トップページ | AI Chatbotのコストは誰が負担することになるのか? »