« 権力者 | トップページ | 英国:必須インフラの防護のためのデータセンター計画 »

2024年9月13日 (金曜日)

AI導入による失業が現実化か?

下記の記事が出ている。

 AI ruling on jobless claims could make mistakes courts can’t undo, experts warn
 ars technica: September 11, 2024
 https://arstechnica.com/tech-policy/2024/09/ai-ruling-on-jobless-claims-could-make-mistakes-courts-cant-undo-experts-warn/

***

この記事に書かれているような問題を解消するためには,EUのAI法及びGDPRが採用しているような方策,すなわち,自動判定の際における「人間による関与」を要件(=必要条件)とするという方策を採用するのが賢明だと考える。

このような要件を導入しても,実際には何も変わらないじゃないかという批判や,現実的ではないというような批判は常にある。特に,裁判制度の本質を全く理解できない人や無教養な人ではそのような意見が多い。

当然のことながら,大多数の裁判官はエンジニアではないしAIの研究者でもないから,技術論を争点にしてしまうと,民事訴訟において仕掛けた方(原告)が常に負けということにもなりかねない。

だからこそ,関連法制の設計においては,普通の裁判官が採用しやすい判断基準を設けることが必要になる。

EUのAI法やGDPRは,この点で非常に優れている。つまり,自動判定がどのような技術でどのように処理されたのかを問題にするのではなく,自動判定に「人間による関与」があったかどうかを判断基準にしているので,人間による関与がなければ,そのことだけで「違法な処理である」と判断できることになる。これならば,普通の裁判官でもできることだ。

いろいろとみていると,これらの点に関してあからさまに荒唐無稽なことが書いてある関連文書が多数存在するが,たぶん,そのような基礎的なことに関して全く無知または無能な者(=本来であればそのような仕事をしてはならない者),または,特定の関連企業のエージェントのような者(=公平性・客観性のない者)が執筆したのでそういうことになっているのだろうと思う。

 

 

 

 

|

« 権力者 | トップページ | 英国:必須インフラの防護のためのデータセンター計画 »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« 権力者 | トップページ | 英国:必須インフラの防護のためのデータセンター計画 »