法と情報雑誌68号
法と情報雑誌68号を作成し,Web上で公表した。
法と情報雑誌68号
http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No68.pdf
この号には「法情報学Ⅰ講義案(その2)」が含まれている。
法と情報雑誌68号を作成し,Web上で公表した。
法と情報雑誌68号
http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No68.pdf
この号には「法情報学Ⅰ講義案(その2)」が含まれている。
この種のニュースはかなり古い時期から出ており,このブログでも紹介してきたのだが,最近の記事として,下記の記事が出ている。
クイーンズランド大学がサイボーグカブトムシ「ZoBorg」開発、がれきを登って災害現場で人命救助へ
FebScene:2025年7月2日
https://fabscene.com/new/news/queensland-university-cyborg-beetle-zoborg-disaster-rescue/
***
一般に,昆虫にとっては無害だけれども人間にとっては致命的なウイルス等を感染させた昆虫を遠隔操作し,国家元首,(宗教組織,政治団体,労働組合等を含め)特定の集団のリーダー,億万長者,大企業のCEO,特定の思想の主唱者,ネット上のインフルエンサー等の特定の個人を暗殺できるようになる。
しかも,そのような昆虫兵器は,核兵器,ICBM,空母艦隊,ステルス爆撃機のように超巨額の資金がなくても開発可能。
加えて,そのような昆虫兵器を開発する者自身がちょっとしたミスから自滅してしまうリスクも非常に高い。
それゆえ,世界の終焉は近い。
そのようにして世界を終わらせるための技術を開発する科学者やエンジニア及びそれらの者を支援する者は,悪魔だと言える。
なお,私は,自然界の生物,機械装置,デジタルエージェント,ミュータント,サイボーグ,アンドロイドなどを全部含む集合として「サイバネティクス」を理解した上で,従来の法学とは全く別の法学を構築すべきだと主張してきたが,私の主張を理解できる者はほとんどいない。賛成する者は皆無。
***
ここで述べたような意味での人類を滅ぼすかもしれないサイバネティクスには,超小型のドローンも含まれる。
それゆえ,そのような超小型のドローンの危険性にも触れた法学論文をだいぶ以前に公表しているのだが,ほとんど読まれていないのではないかと思う。
***
このような技術が昆虫に対してだけではなく,人間に対して応用されるとどうなるかも考える必要がある。無論,そのようにすることを目指してこの種の技術開発が進められていると考えられる。その関係者は,全員,悪魔としてみなされるべきだ。
生成AIのための学習のために膨大な量の個人データが収集され,学習され続けている。
学習されてしまった個人データに対して忘れられる権利を行使することは,技術的には可能と思われるが,当該学習によって生成されたモデル及び派生モデル全部が崩壊してしまうことが明らかだ。
それゆえ,当該学習を実行している企業等は,忘れられる権利の行使を認めないということになるだろう。
そのような場合,EUの裁判管轄権が及び得る範囲内においては,GDPRに基づく制裁が可能となる。
その制裁を逃れるためには,当該収集・学習した個人データ,当該学習によって生成されたモデル及び派生モデルの全てを完全に消去しなければならない。
また,GDPRに基づく制裁の他に,GDPRにおけるデータ主体に対する民法(不法行為法)に基づく損害賠償責任が発生し続けることになる。
簡単に言えば,個人データを処理対象とするAIシステムは,そのシステムが完全に破壊される日まで日々新たに法益侵害し続けるシステムであり得る。
だから,個人データを処理対象とするAI及び関連ビジネスは,非常にリスキーなのだ。
AIエージェントが実際にはどのような処理をしているのかの詳細を知ることは不可能または困難なことだ。
AIエージェントのふるまいの適法性の検証も難しい。特に利益相反の有無の検証は,関連する利害関係者の利益の詳細に関する情報を得ることがほぼ不可能と考えられるので,検証しようがない。著作権侵害の場合に関しては,一定の範囲内で自動処理を組込むことが可能かもしれないが,そもそもAIシステムの圧倒的大部分において著作物であるコンテントの処理に関し,正確な権利者情報や出典情報,裁判管轄地情報等のメタデータが存在しないので,著作権侵害がないことの検証の自動処理も頓挫する可能性が高い。
それでいて,利用者のエージェントである以上,そのAIエージェントに何か違法なふるまいがあり,誰かに対して損害を発生させた場合,そのAIエージェントサービスの利用者が行為者となり,不法行為法上の法的責任を負うことになる。
他方,日本国の製造物責任立法は信じがたいほど時代遅れのものなので全く話にならないが,例えば,EUの法令では動産だけではなくアプリケーションソフトウェアの提供のようなサービスの場合にも製造物に関する証明責任の軽減を定める法令がある。
それゆえ,日本国のAIエージェントのベンダは,EU域内でサービスを提供する場合,EUの法令が適用される。日本国の製造物責任に関する知識だけでは完全に無力だ。
このようなことは,例えば,「適法に行為する」という当たり前のことを全然知らない企業経営者がAIシステムを開発したり導入したりすると,当然の結果として発生する。
そのような場合おいては,もともと経営者として不適格なのに経営者になっているので,何が起きても自業自得としか言いようがない。
下記の記事が出ている。
Teachers are not replaceable, UNESCO paper argues in new guidance on AI in education
ETIH: 8 Sept, 2025
https://www.edtechinnovationhub.com/news/teachers-are-not-replaceable-unesco-paper-argues-in-new-guidance-on-ai-in-education
***
私は,あまり評価していない。
下記の記事が出ている。
FTC Prepares to Question AI Companies Over Impact on Children
Wall Street Journal: September 4, 2025
https://www.wsj.com/tech/ai/ftc-prepares-to-grill-ai-companies-over-impact-on-children-a1931640
***
一般に,GPTアプリやGPTサービスを使用することは,思考活動の一部を外部依存することを意味する。
このことが何を意味するか,どうやれば問題の発生を避けることができるかは,企業による仕事の一部の外注と比較して考えてみるとわかりやすい。
企業において,ある仕事を外注することはしばしば行われているが,発注元企業による外注先の仕事に対する監査が適切に行われないと詐欺行為や背任行為の温床となり,破滅の入口にたつことになる。
発注元企業による外注先の仕事の手順や精度等の調査や検査が徹底的に行われいないと,外注先企業の能力や信頼性を正確に評価できないから,とんでもない蹉跌の原因を自らつくってしまうことになる。
発注元企業による外注先の経営陣の実質,信頼性,知的財産権や秘密情報の保護の期待可能性が正確に測定されており,違法行為に対する可能な限り厳格な報復や処罰のシステムが整備されていないときは,外注したということだけで発注元企業の知的財産や秘密情報が第三者の手に渡ることになる。保護されるべき個人情報に関しても同じ。
発注元企業が,外注先から納入された製品や提供されたサービスが発注された仕様と精度を確保しているかどうかを検査できない場合,その製品やサービスの欠陥による顧客や消費者に対する損害賠償責任を負う過失が存在することになる。
組織のトップにいる者などが顧問や担当専門職等から適切な知識や考え方を得ながら自ら思考して組織運営することは普通だが,人間と人間がやっていることなので,当該顧問や担当専門職等に対して適切に質問をして当該顧問や担当専門職の回答が正しいかどうか,組織経営と整合性のあるものかどうかを柔軟に判断できる。逆から言えば,組織のトップにそのような適切な判断能力が欠けている場合,その組織は破滅を免れない。
例えば,高度経済成長の時代が終わってしまっており,世界の経済環境も大規模に変化してしまっているのに,そのことを無視してかつての高度経済成長期のやり方を焼き直しただけの(見かけだけ立派で内容空虚な)方針が回答されたとしても,当該組織のトップに適切な判断力が欠けている場合,そのような回答がどのような危険性をもつ回答であり,組織と当該組織の顧客をまるごと破滅させるものかもしれないかということなどを理解できない。
普通の企業が普通の企業や個人に対して仕事を外注する場合,以上の諸点について自前で検査することが可能であるべきであり,通常は可能であり,実際に適正な検査等を実施し続けている発注元企業に法的責任が発生するリスクを低く抑えることができる。
さて,GPTの場合はどうか?
ほぼ全部がブラックボックスであり,GPTアプリやGPTサービスを提供する企業のエンジニアでも,質問に対して即座に回答することは不可能だ。
当該GPTアプリやGPTサービス自体は質問に対して自己防御的な虚偽内容の回答を即時に用意することになるだろう。ところが,利用者は,GPT内がブラックボックスであり自分で検証する方法をもたないのが普通なので(=ただし,世界でもトップクラスの極めて優秀な犯罪捜査官や諜報局員のような高度な知能をもつ者であれば,当該GPTの性能とクセを直ちに見抜き,精巧に設計されたテストデータを入力してその入力に対する処理結果を検討し,リトマス紙のように一定の検証を実施することが可能かもしれないが,普通の企業経営陣の場合,利益獲得または自己保身という思考バイアスに目をくらまされて常に判断を誤る。),検証できない。
まして,日常生活における健全な判断プロセスが形成されておらず,メンタルモデルが不確実な段階にある児童が,思考することの辛さから逃れるためにGPTに依存し,その結果を受容するだけの行動パターンを重ねると,メンタルモデルが形成されない。要するに,「脳味噌が空っぽ」になる。
このことは成人の場合でも同じだ。
例えば,PCによる入力に慣れてしまうと手書きで正確に英文を書いたり正確に漢字を書いたりする能力が次第に低下する(=読むことはできるが,書けない。)ことは日常的に誰でも経験していることだ。成人が学業や仕事の場においてGPTの出力に依存してしまうと,同じことが知識や思考能力それ自体について大規模に発生することが避けられない。
要するに,痴人化する。
痴人化した学生は学業不振により退学を避けられない。痴人化した従業者は,無能として解雇を避けられない。痴人化した企業経営者や政治家は,失脚を免れない。痴人化した指揮官の下にある軍隊は全滅を免れない。
それゆえ,思考それ自体をGPTアプリやGPTサービス等に外注してはならない。
GPTアプリやGPTサービスが有用性を発揮できるのは,当該GPTが前提とする既存の理論や方式の妥当性が維持されており,かつ,どんなに大量でも当該GPTからの出力結果の正確性や正当性を自動的に数学的に検証可能な問題に限って使用するということを厳守し,かつ,解答が存在する問題の処理に関して,非常に便利なマクロの一種として(=処理内容や処理方式等が既に確立されており,必ず有限の解がある課題に関し,機械的な反復処理または継続処理を自動化するための)自動処理ツール的な利用として理解可能な場合に限る。
このような場合においても,当初の設計段階において錯誤やミスが混入する可能性は否定されないので,(工場内のラインにおける製品の抜き取り調査と同様に)GPTアプリやGPTサービスによる処理結果に関し,常に抜き取り調査(検証)が可能な状態にあること,問題が発見されたときは,既往の処理結果を破棄し,すべでやり直すことができることが確保されなければならない。
GPTアプリやGPTサービスが非常に面白い玩具であることは否定できないので,それが危険な玩具なのだということを即座に了解できないレベルの頭の悪い子供は,(ゲーム機やオンラインゲームのように)すっかりはまりこみ,そこから抜け出ることができなくなり,痴人として成長することになる。
[追記:2025年9月7日]
関連記事を追加する。
The Hidden Dangers of AI Tools in Your Child’s Education
Psychology Today: August 12, 2025
https://www.psychologytoday.com/us/blog/parenting-beyond-power/202508/the-hidden-dangers-of-ai-tools-in-your-childs-education
最近のコメント