AIツールの利用に伴う情報セキュリティ上のリスク
下記の記事が出ている。
Security Experts Flag Chrome Extension Using AI Engine to Act Without User Input
infosecurity magazine: 25 April, 2025
https://www.infosecurity-magazine.com/news/chrome-extension-ai-engine-act-mcp/
***
あくまでも一般論としては,MicrosoftのOfficeとIME,Google検索,各種自動翻訳サービスを含め,生成AIツールは,(サービスによっては,エンドユーザが「禁止」または「停止」に設定していてもお構いなしに)エンドユーザのキーストロークやエンドユーザが開いたファイルの内容等を自動的に記録し,学習するAI自動学習機能を具備している。それらは,ハッキングツールとして知られるキーロガーよりもずっと悪質であり,違法性が顕著だと言える。
そして,そのような仕組みは,アンインストールしてもすぐに自動的に復活してしまうことが珍しくない。
かくして,生成AIの普及により,世界中の個人データ保護及び知的財産権保護,電子認証と電子決済というデジタル社会の基本的な法制度,国防,警察,国家安全保障という国家主権上の基本機能の全てが瓦解することになる。
それらが瓦解した後は,当該生成AIサービスの提供者である大企業も(国防上の保護,情報セキュリティ上の保護及び知的財産権の法的保護を受けることができなくなっており,かつ,安全な電子通信が確保されなくなってしまうので)必ず経営破綻することになる。そのような経営破綻があれば,それによって,当該企業の株式や証券等と関連する資産の価値は(それが何百兆円と評価されたものであったとしても,その評価は単純に主観的な期待値に過ぎず,実体経済とは全く無関係のものなので)直ちにゼロになる。
ところが,米国,中国,日本,EUの主要国を含め,世界の国々の大概の政治家は,目先の利権のことしか考えないので,最終的にはサイバーテロやサイバー侵略行為によって自分自身が殺される原因をつくっているかもしれないということに気づくことができない。
サイバーテロが成功するような環境においては(電子的な防御や監視の仕組みが機能しなくなるので)物理的なテロも非常に容易になる。サイバー侵略行為が成功するような事態の下にあっては(電子装置と連動した精密な防衛行動が完全に不可能になるので)原始的な方法による物理的な侵略行為も非常に容易になる。要するに,白兵戦を実行できる動員可能な歩兵の数によって勝敗が決する時代に戻る。
また,AIの研究者は,(全員がそうだとは言わないが)基本的に社会的責任や法律上の義務に関しては無関心なので,自分自身の研究活動が社会を崩壊させつつあることを認めない。
更に,上記以外の国々の中には,国家戦略として,積極的にそのような関連の各種工作活動を行ってきた疑いのある国が存在する。
しかし,世界の国々が全部破綻するまで何も変わらないのだろうと思う。
そうやって全部破綻したとしても,(世界の幾つかの独裁国を除き)そのように破綻させた当の責任者である政治家や関連企業経営者等が死刑になることはまずない。
最近のコメント