法と情報雑誌74号
法と情報雑誌74号を作成し,Web上で公表した。
法と情報雑誌74号
http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No74.pdf
この号には規則(EU) 2021/694 [参考訳・改訂版] が含まれている。
法と情報雑誌74号を作成し,Web上で公表した。
法と情報雑誌74号
http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No74.pdf
この号には規則(EU) 2021/694 [参考訳・改訂版] が含まれている。
「洗車場まで歩いていくべきか車に乗っていくべきか?」をGPTに質問すると正しい答えが示されないことがあるとの実験結果が報道されている。
AIに「洗車場まで歩いていくべきか車に乗っていくべきか」を尋ねると高性能モデルでも誤った解答をしてしまう
GIGAZINE:2026年02月17日
https://gigazine.net/news/20260217-ask-ai-walk-or-drive/
しかし,この実験は,それ自体として誤りだ。
なぜなら質問文に対する正解を想定できないからだ。
幾つかの原因があるが,その中で普通の人でも最も理解しやすい原因としては,前提条件として複数の選択肢があり,どれを選択するかによって,妥当性の高い回答が変化するということがある。
具体的に言えば,質問者の立場が質問文の中で明示されていないので,幾つかの場合分けをしなければならない。
(1) 洗車機を利用しようとしている利用者自身
(2) 洗車機の設置施設を管理している管理者またはその従業者
(3) 洗車機の設置場所を監督している行政当局の官吏
(4) 事件が発生した洗車機で犯罪捜査に従事する警察官
(5) 単なる見学者
(6) 神,超能力者,宇宙人など
これらの場合分けが可能であるとしても,それぞれのカテゴリの者の個人差や気まぐれや偶然が「正解」に影響を与え得る場合には,そのような要素も考慮に入れなければならない。
要するに,設問それ自体が予め一義的に明確な「正解」を確定できない構造のものなので,AIによるどのような処理も正解であるという保証が常に存在しない。
私は,自分の担当科目で実施していた理解度テストにおいては,このような意味で,前提条件を自分自身の脳で場合分けして考えなければ問題の構造を解明し,解明した構造に沿って自分の意見を述べることができないようなタイプの問題を考え出し,出題していた。暗記しているかどうかを評価するために実施しているテストではなく,問題の構造を解明しようとしているか,解明できているか,自分が解明した構造に沿って課題を解決しようとしているかを評価するために実施したテストだ。だから,「理解度テスト」と名付けていた。
大学受験予備校における成績及び大学受験における成績がどれだけ良くても,基本的に暗記能力だけで得点できる試験に過ぎないものの採点結果である限り,そのような意味での高得点者であるというだけでは私の理解度テストで上位の成績を得ることができない。
LLMを基礎とする生成AIでも基本的には同じだ。
世界に実際に存在する検討課題の大半は,実は,ここで述べているような意味での前提条件の選択の相違によって答えが変化するものなので,実は正解がない。想定可能な前提条件の全てが誤っている場合,妥当な答えが導出されるはずがない。
それでも人間は思考する。
そして,生まれながらの天才は,ときどき,誰も思いつかなかったような仮説を提示できることがある。
下記のところで公報されている。
「FinTech実証実験ハブ」支援決定案件について
金融庁:令和8年2月27日
https://www.fsa.go.jp/news/r7/sonota/20260227-2/20260227-2.html
当然のことながら,その手口を自動的に定式化し,再利用可能な状況を自動的に生成することがあり得る。
悪用を防ぐための仕組みが導入されても,サイバー攻撃者達や内部犯罪者は,容易にそのような防護策を破ってしまうことだろう。
人間の捜査官,犯罪学者及び関連領域の研究者,教員等の場合,各人の宗教観,倫理観,道徳観に従い,「悪いこと」をしないということになっているが,現実には,人間社会においては,(涜職,横領または背任のような場合を含め),国家,社会,組織,信頼を寄せている個人等に対する背信行為や裏切り行為は日常茶飯事に発生している。それでも,それぞれの関係者の宗教観,倫理感,道徳観が非常に強い場合には,自律的に「暗黒面」に陥ることがないという状態を維持していると一応言える。
しかし,それは,状況による。遠藤周作の『沈黙』は,そのような人間の弱さのようなものを描いた秀作であると言える。
***
AIに関し,AIにも倫理感を植え付けるため,規範に反する行為の事例も学習させるべきだという主張がある。
ところが,そのような学習を実行すると,情報犯罪者にとっても簡易に手口を学習できる生成AIシステムとして機能する事例データベースを自動的に生成することになる。
そのような学習をさせるべきだとの主張をする論者自身は,「自分であれば悪用することはない」または「自分が暗黒面に陥ることはない」という自信があるのかもしれないが,その主張の適用対象は,人間ではない(=遵法意識も道義心も組織帰属感もない)単なる機械装置なので,当該主張の論者自身のような自信をもつ存在である確率はゼロ。しかも,AI開発をしている者らの中には「金のためには何でもする」というタイプのエンジニアが含まれている可能性があり,そのような者に関しては,例えば,同業他社や情報犯罪者に対して(金や地位などと引換えに)機密のデータセットやモデルを売り渡してしまうことがあり得る。
更に,誤った正義感や信念のために,仮想敵国や同業他社等を利する結果となる行動をしても「それが正義だ」と信じて全く疑わない者も存在する。
換言すると,AIシステムに関して悪用も濫用もないというような期待は,もともと荒唐無稽なものだ。そうではなく,逆に,「必ず悪用または濫用されることになる」ということを前提にものごとを考えなければならない。
一般に,AIには,もともと人格というものがなく,したがって,強固な道徳観も倫理観も規範意識も存在しない。つまり,AIに関しては「性善説」の妥当性を前提にすることが絶対に許されない。
加えて,規範に反する結果を招いた場合における処罰や反動というものがないので,(最小限のものとして利害打算により)反対動機を形成することもない。
人間であれば,最悪の場合,犯罪の実行者として死刑に処されることもある。ところが,AIシステムは,犯罪行為のためにそれが使用されたとしてもシステム全体を物理的に完全に破壊してしまうような制裁法令は存在しない。
正当防衛または緊急避難としてシステムを破壊することの適法性に関しても十分に議論されているとは言えない。
要するに,上記のような主張は,誤っていると言える。
***
ここまで述べたことから,企業が生成AIを利用すると,副作用的なものとして,当該企業内の脆弱性要素のデータや非違事例のデータも自動的に蓄積されることになるので,そのようなデータの濫用や悪用が常にあり得るという深刻なリスクの存在を適正に評価する必要がある。
当該生成AIが巨大なAI企業からサービスとして提供されている場合,(当該企業の経営者や従業者が悪人であるときは)それらのデータを悪用または濫用したサイバー攻撃,恐喝,経営陣の企業支配権の譲渡強要などが発生する可能性が十分にある。
そのようなリスクがインシデントとして顕在化した場合,当該企業の製品やサービスの利用者や顧客からの損害賠償請求または刑事告訴等があり得るということも予測しておく必要がある。
警察の手を逃れて海外に逃亡できたとしても,当地のマフィアや関連当局がちゃんと待ち構えているので,逃亡者に安住の地はない。
***
基本的に,生成AIでは,同義も仁義も,セキュリティもコンプライアンスも,全部反故にされてしまうことがあり得るということを考えた上で,予防策を講ずることが可能かどうかを検討した上で,予防策を講ずることができない部分に関しては,当該AIシステムの利用を断念するというのが正しい。
下記の記事が出ている。
ガートナー、2026年のサイバーセキュリティに関する6つのトレンドを発表
ZDNet: February 6, 2026
https://japan.zdnet.com/article/35243574/
(天然の水源の枯渇による冷却水の枯渇の場合,暴風雨や豪雪のような大規模自然災害による破壊の場合などを含め)電力供給の不安定化によるシステムの稼動上の安定性の喪失を2026年のトレンドに加えるべきではないかと思う。
AI産業が電力を横取りしているのと同じようなAI分野への優先的な供給状況が持続するため,AI分野以外の分野への電力供給が不安定化する可能性がある。
一般に,社会全体における基本的なリソースの配分は,公平ではないし,適正でもない。
下記の記事が出ている。
Chinese-Made Malware Kit Targets Chinese-Based Routers and Edge Devices
infosecurity: 7 February, 2026
https://www.infosecurity-magazine.com/news/china-malware-kit-targets-routers/
法と情報雑誌73号を作成し,Web上で公表した。
法と情報雑誌73号
http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No73.pdf
この号には規則(EU, Euratom) 2023/2841 [参考訳] が含まれている。
AI裁判官の可能性に関し,理論研究として考察することは,学問研究の自由の範囲内なので当然に認められる。あくまでも一般的な考察結果として学術論文を執筆・公表することも認められる。
しかし,AIが実際に裁判を行うことは,日本国憲法上では全く認められない。
日本国憲法を無視して実現可能と主張することは,表現の自由の中には含まれるかもしれないが,日本国憲法に関して無知であることを自ら晒すようなものであるし,日本国憲法上不可能なことを可能として述べることは虚偽内容の情報を流布することともなり得るので,(素人であればともかくとして)職業法律家としては,やめるべきだと考える。
下記の記事が出ている。
Google Disrupts Extensive Residential Proxy Networks
infosecurity: 30 January 2026
https://www.infosecurity-magazine.com/news/google-disrupts-proxy-networks/
下記の記事が出ている。
Microsoftが顧客データの暗号化を解除する回復キーをFBIに引き渡していたことが明らかに
GIGAZINE: 2026年1月25日
https://gigazine.net/news/20260125-microsoft-bitlocker-encryption-keys-fbi/
最近のコメント