2026年3月11日 (水曜日)

石油が枯渇すると

世界各地の戦争の状況が一変する。

ドローン(戦闘用ロボティクス)の筐体や部品の多くは石油を原料とする樹脂によって構築されているのだが,原材料を生産できなくなるとドローンの製造もできなくなるので,戦場において消費したドローンの補充が不可能になる。
一般的な工業製品の原材料を製造するための石油供給は軍事品の製造よりも劣後することになるので,民生品としてのロボティクスの製造など夢のまた夢になる。要するに,「ロボット立国」は不可能となる。

ところで,戦場において,戦車や戦闘車両等は石油を燃料とする動力によって移動するが,石油が枯渇すると単なる金属塊になる。

場所によっては,コサック騎兵のような動物によって移動する軍隊が復活するかもしれないが,石油がなければ馬などに食べさせる食料(飼料)を生産することが困難になる。

結局,より大規模な油田をもつ国が相対的に優位となり,勝者となる。

そのような結果を避けるため,相手国の油田全体を破壊可能な核兵器の使用が不可避となり・・・結局,現在の文明社会がほぼ全面的に崩壊するかもしれない。

そういう(誰でも容易に想到可能な)未来が現実に到来することを避けるため,これまで,各国の指導者達は,潜在的な敵対国との間で決定的な対立を避けるようにしてきた。

ところが,そのような簡単なことを理解できない国家指導者がいる。そのような国家指導者は,自分に対して厳しく意見をする官僚や諜報機関員等をどんどん免職または解雇してきたので,まともに意見形成できる環境下にはない。

それでもなお戦闘開始を決定した原因としては,法と情報研究会の第5回研究報告会でも述べたとおり,生成AIによる高度シミュレーションを信じすぎて頭蓋骨内が空洞化したことに起因することではないかと推測される。

どんなに高度な生成AIシステムであっても,神ではないので,世界全体を知っているわけではない。重要な要素を割愛またはまるめた簡素化されたシミュレーションしか出力できない。このことは,人間でもコンピュータシステムでも変わらない。

もし仮に高度な生成AIシステムが世界全体を知っていたとしたら,「どのようなやり方(戦術)を採用したとしても,いったん戦闘を開始すると,最終的には世界の破滅へと導かれる」というシミュレーション結果を出力したことだろう。

 

 

| | コメント (0)

2026年3月 2日 (月曜日)

生成AIを使っても頭が悪くならないという意見

どのような意見をもとうと,それは,各人の自由だ。

しかし,私は,生成AIを使って頭蓋骨の中が空洞化し続けている者を実際に多数みてきたので,「そうはならない」という内容の意見をみかけると,そのような意見の論拠を知りたくなる。

大抵の場合,考慮に値する論拠が示されていない。頭蓋骨の中が空洞化していると推定される。
論拠らしきものが書かれている場合でも,まるで論拠になっていないということをその者自身が全く理解できていない。頭蓋骨の中が空洞化しているので,理解できないのだと推定される。

一般に,まともに「思考したこと」がない者は,自分が本当は「思考していない」ということを自己認識できない。

また,一般に,内容空虚な書籍等ではなく真に読むべき書籍と真剣に格闘したことのない者は,「書籍(特に古典)の重要性」を理解できない。
そもそも書籍ではない物体(受験参考書,安易なノウハウ本,単なる宣伝広告物に過ぎない物体など)を書籍だと信じているために,「たくさん読書してきた」と錯覚していることが多い。実は何も読書していない。
私は,明治大学法学部の学生に対しては,物体である冊子でもデジタル版でも良いから,例えば,司馬遷の『史記』やプラトンの著作のような古典作品を全編通読し,現代社会の状況及び自分自身の内的世界と照らし合わせて何か感ずるものがないかどうか考え続けることを推奨してきた。その際,経験がないと理解できない部分がかなりあるので,現時点では理解できない部分があってもそのような部分は保留にして読み進め,とにかく最後まで読むことを推奨してきた。大概の場合,最後まで読んでみると,当該書籍の最初の方で理解できなかった箇所の大部分が自然と理解できるようになる。それゆえ,同じ古典作品を人生の中で何度か重ねて通読みることが最も効率的であることになる。

一般に,「思考していない」ということを自己認識できない者や「書籍(特に古典)の重要性」を理解できない者は,例えば,生成AIを利用して講義内容や書籍の要旨を生成させ,そのような簡略版だけを読んで「全部わかった」というマスターベーション的な異常心理状態の中で耽溺し続ける結果,ますますもって知的能力を低下させ続けることになる。

一般に,これらの頭蓋骨内が空洞化した者は,著名大学の学生の中にもかなり多数みられるので,大学受験の際の偏差値や大学のレベルに対する世間的な評価は,ほぼ完全に無意味化しているということが証明されていると確信している。

一般に,「著名大学の学生がそのように述べている」ということを根拠にして記事を書いている記者やライターの頭蓋骨の中も空洞化していると推定される。
それゆえ,関連する企業の担当者としては,そのような記者やライターに関しては,契約を切るべき候補者の上位にリストするのが賢明だと思われる。

私は,明治大学における受講学生に対し,図書館に行って必要な書籍(特に古典)を探し,精読することの重要性を教示してきた。

そのとおりに実行する者は必ずしも多いとは言えなかったけれども,そのとおりに実行し,費用対効果とは一見すると相反するような「急がば回れ」を実行し続けた学生は,その後,様々な資格試験に短期間で合格してその分野の専門職となり,私の目からみても優れた企業だと思われる企業に就職し,あるいは,権限のある行政官として任用された。彼らは,大いに活躍している。

「急がば回れ」の重要性を一日でも早く理解した者は,結果的に,費用対効果を達成できている。「必要な投資なしにリターンを得ることはない」という当たり前の法則がそこでは現実化し続けていたのだと言える。

その逆もまたしかり。

一般に,企業経営者や人事担当者は,そのような目で人材を評価すべきだと思う。

「生成AIを使用してきたか」を質問し,使用してきたと答えた学生に関しては,上記のような視点を踏まえ,「思考すること」がどのようなことを意味しているかを当該の時点において当該の者が「思考している」かどうかを評価すれば良い。

それらしい回答文を暗記してきただけと疑われる者に対しては,「なぜ,そう言えるのか?」をどこまでも回答させると良い。無論,誰であっても,最後は,「自分がそう思うからです」という回答(=「実は根拠が何も存在しない」という回答)に突き当たるはずなのだが,そこに突き当たるまでの深さ(=レイヤの深さ)は,当該の者の思考能力と正比例するので,最終的な回答がどのようなものであれ,「なぜ,そう言えるのか?」をとことん質問することにはかなり大きな合理性がある。

ちなみに,生成AIの回答ではこの点に関する究極の論拠をごまかすことが多いので,当該の者が生成AIによる要約等を暗記しているだけの者であるかどうかまたは当該の者が密にウエアラブルデバイス(←インプラントの場合を含む。)を装着し,そのデバイスを介した生成AIの回答を発声するだけの部品(←敵対企業もしくは仮想敵国のスパイであること場合を含む。)になってしまっているかどうかを判別することもできる。

***

世界有数の大学の出身者であっても著名な犯罪者は存在するし,世界的に嫌悪されている人もいる。また,論文におけるデータ捏造等の理由により学位を取消された者は数知れない。

まして,学生の場合,天才も含まれているかもしれないが,たいていの場合,当該学生の自己認識に反し,指導教授の判定は0点であるかもしれない。
要するに,当該学生にとっては「生成AIを使っても頭が悪くならない」と確信されている場合であったとしても,そのような意見は,(例えば,生成AIの使用に起因する知力の劣化のためにそのように確信されているものなのであって)考慮すべき価値をもたないものかもしれないということを理解すべきだ。

特に,職業記者は,情報の信頼性や価値などを適正に評価することが職業上の義務となっている。

それゆえ,記者やライターが学生から取材した結果を素材にして記事を書く場合,(情報の信頼性や価値を適正に評価するため)当該学生の指導教授も(直接に面談して)インタビューすべきだと思う。
指導教授から直接の面談を拒否されたときは,その教授が「当該学生に関する説明や評価を提示したくない学生」と理解すべきだろう。取材拒否の理由を明らかにすると「誹謗中傷」との非難を受けるリスクが存在する場合,その指導教授は,その理由を明らかにしないで,単純に取材拒否をすることだろう。

以上のように理解し,納得できるのでなければ,一人前の記者やライターであるとは言えない。

そうでない記者やライターは,自己研鑽を積み,一人前の記者やライターになってもらいたい。

 

| | コメント (0)

2026年2月19日 (木曜日)

LLMが犯罪やサイバー攻撃の前例(事例)を学習し,学習結果を集積すると・・・

当然のことながら,その手口を自動的に定式化し,再利用可能な状況を自動的に生成することがあり得る。

悪用を防ぐための仕組みが導入されても,サイバー攻撃者達や内部犯罪者は,容易にそのような防護策を破ってしまうことだろう。

人間の捜査官,犯罪学者及び関連領域の研究者,教員等の場合,各人の宗教観,倫理観,道徳観に従い,「悪いこと」をしないということになっているが,現実には,人間社会においては,(涜職,横領または背任のような場合を含め),国家,社会,組織,信頼を寄せている個人等に対する背信行為や裏切り行為は日常茶飯事に発生している。それでも,それぞれの関係者の宗教観,倫理感,道徳観が非常に強い場合には,自律的に「暗黒面」に陥ることがないという状態を維持していると一応言える。

しかし,それは,状況による。遠藤周作の『沈黙』は,そのような人間の弱さのようなものを描いた秀作であると言える。

***

AIに関し,AIにも倫理感を植え付けるため,規範に反する行為の事例も学習させるべきだという主張がある。

ところが,そのような学習を実行すると,情報犯罪者にとっても簡易に手口を学習できる生成AIシステムとして機能する事例データベースを自動的に生成することになる。

そのような学習をさせるべきだとの主張をする論者自身は,「自分であれば悪用することはない」または「自分が暗黒面に陥ることはない」という自信があるのかもしれないが,その主張の適用対象は,人間ではない(=遵法意識も道義心も組織帰属感もない)単なる機械装置なので,当該主張の論者自身のような自信をもつ存在である確率はゼロ。しかも,AI開発をしている者らの中には「金のためには何でもする」というタイプのエンジニアが含まれている可能性があり,そのような者に関しては,例えば,同業他社や情報犯罪者に対して(金や地位などと引換えに)機密のデータセットやモデルを売り渡してしまうことがあり得る。
更に,誤った正義感や信念のために,仮想敵国や同業他社等を利する結果となる行動をしても「それが正義だ」と信じて全く疑わない者も存在する。
換言すると,AIシステムに関して悪用も濫用もないというような期待は,もともと荒唐無稽なものだ。そうではなく,逆に,「必ず悪用または濫用されることになる」ということを前提にものごとを考えなければならない。

一般に,AIには,もともと人格というものがなく,したがって,強固な道徳観も倫理観も規範意識も存在しない。つまり,AIに関しては「性善説」の妥当性を前提にすることが絶対に許されない。

加えて,規範に反する結果を招いた場合における処罰や反動というものがないので,(最小限のものとして利害打算により)反対動機を形成することもない。
人間であれば,最悪の場合,犯罪の実行者として死刑に処されることもある。ところが,AIシステムは,犯罪行為のためにそれが使用されたとしてもシステム全体を物理的に完全に破壊してしまうような制裁法令は存在しない。
正当防衛または緊急避難としてシステムを破壊することの適法性に関しても十分に議論されているとは言えない。

要するに,上記のような主張は,誤っていると言える。

***

ここまで述べたことから,企業が生成AIを利用すると,副作用的なものとして,当該企業内の脆弱性要素のデータや非違事例のデータも自動的に蓄積されることになるので,そのようなデータの濫用や悪用が常にあり得るという深刻なリスクの存在を適正に評価する必要がある。

当該生成AIが巨大なAI企業からサービスとして提供されている場合,(当該企業の経営者や従業者が悪人であるときは)それらのデータを悪用または濫用したサイバー攻撃,恐喝,経営陣の企業支配権の譲渡強要などが発生する可能性が十分にある。

そのようなリスクがインシデントとして顕在化した場合,当該企業の製品やサービスの利用者や顧客からの損害賠償請求または刑事告訴等があり得るということも予測しておく必要がある。

警察の手を逃れて海外に逃亡できたとしても,当地のマフィアや関連当局がちゃんと待ち構えているので,逃亡者に安住の地はない。

***

基本的に,生成AIでは,同義も仁義も,セキュリティもコンプライアンスも,全部反故にされてしまうことがあり得るということを考えた上で,予防策を講ずることが可能かどうかを検討した上で,予防策を講ずることができない部分に関しては,当該AIシステムの利用を断念するというのが正しい。

 

| | コメント (0)

2026年2月 8日 (日曜日)

サイバーセキュリティに関する2026年の6つのトレンド

下記の記事が出ている。

 ガートナー、2026年のサイバーセキュリティに関する6つのトレンドを発表
 ZDNet: February 6, 2026
 https://japan.zdnet.com/article/35243574/

(天然の水源の枯渇による冷却水の枯渇の場合,暴風雨や豪雪のような大規模自然災害による破壊の場合などを含め)電力供給の不安定化によるシステムの稼動上の安定性の喪失を2026年のトレンドに加えるべきではないかと思う。

AI産業が電力を横取りしているのと同じようなAI分野への優先的な供給状況が持続するため,AI分野以外の分野への電力供給が不安定化する可能性がある。

一般に,社会全体における基本的なリソースの配分は,公平ではないし,適正でもない。

 

 

 

| | コメント (0)

2026年2月 7日 (土曜日)

DKnife

下記の記事が出ている。

 Chinese-Made Malware Kit Targets Chinese-Based Routers and Edge Devices
 infosecurity: 7 February, 2026
 https://www.infosecurity-magazine.com/news/china-malware-kit-targets-routers/

 

 

| | コメント (0)

2026年2月 1日 (日曜日)

法と情報雑誌73号

法と情報雑誌73号を作成し,Web上で公表した。

 法と情報雑誌73号
 http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No73.pdf

この号には規則(EU, Euratom) 2023/2841 [参考訳] が含まれている。

 

| | コメント (0)

2026年1月30日 (金曜日)

IPIDEA

下記の記事が出ている。

 Google Disrupts Extensive Residential Proxy Networks
 infosecurity: 30 January 2026
 https://www.infosecurity-magazine.com/news/google-disrupts-proxy-networks/

 

 

| | コメント (0)

2026年1月24日 (土曜日)

EU:サイバーセキュリティ法の改正動向

下記のとおり公示されている。

 Proposal for a Regulation for the EU Cybersecurity Act
 European Commission: 20 January, 2026
 https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-eu-cybersecurity-act

 

| | コメント (0)

2026年1月20日 (火曜日)

水素パイプライン

都市のインフラとして水素パイプラインが設置されている場合,その都市には決して近づいてはならない。

水素は,それ自体として爆弾のようなものだ。猛烈に燃焼(酸素と化学反応)する。

私がもし仮装敵国の諜報機関であるとすれば,そのような水素パイプラインを一斉に爆発させ,一瞬にして都市を瓦礫の山にしてしまうための具体的な戦術及び作戦を検討し始めることになるだろう。

 

 

 

| | コメント (0)

AIシステム用のデータセンターは脳梗塞のようになり得る

全く使用しない状態であっても,部品は物体なので,自然に劣化する。脳細胞に相当するSSDも脳の血管に相当する電源ケーブルも自然に劣化する。

使用されている状態では更に劣化する。

SSDのようなICメモリは,一定回数繰り返して読み書きすると,劣化により機能しなくなることが知られている。実際,そのようになる。

AIシステム用のデータセンターでは,通常のPC等と比較して,何倍も使用頻度が高いと推定されるので,通常のPCよりも何年も早くメモリ破壊による機能不全が発生し得ると考えられる。

人間で言えば脳梗塞のような状態が少しずつ始まり,脳全体に及ぶようなことが起き得る。あるいは,脳細胞全体の中で部分的な記憶消去が頻発するようになり,生体脳における痴呆症のような状態が発生し得る。

明確に機能不全になった場合だけではなく,通常の検査では発見できない微細な壊死のような状態になった場合,AIシステムにおける演算の正確性や信頼性に対してどのような影響があるのか,致命的な演算不能が発生するのはデータセンターを構成するメモリのどの部分どれだけの割合で劣化し正常に機能しなくなったときなのかを詳密に論じた学術論文があるのかどうかは知らない。

他方,そのようなデータセンターを基礎とするAIサービスを大幅に導入している企業もかなり深刻な影響を受けることを避けられない。AIシステムの脳梗塞や痴呆症のような状態による悪影響をもろに受け,経営陣も従業者も何も判断できなくなってしまうからだ。
そのようなリスクを少しでも緩和するためには,AIが全く存在しなくても他社に対して優位を保てるような生来の超人的な異能人材だけを経営者に据える以外に方法がない。近未来の社会では,そのような生来の超人的な異能人が,AIなしでは生きられなくなってしまっている大多数の空脳人を奴隷として支配するようになっているかもしれない。

加えて,データセンターが劣化によって機能しなくなった場合,その施設内の装置を更新するためにどれだけのコストが発生するのか,データセンターの運用を廃止した場合,その撤去と有害物質の除去と様々な補償の支払いのためにどれだけのコストが発生するのかについてまともに論じられているようには思われない。従業者及び近隣住民に対する健康被害に関する影響評価や自然環境に対する影響評価が正常に行われているとも思われない。
また,そのデータセンターを経営している企業が破産して何もできなくなってしまっているときは,当該データセンター所在地の自治体の税負担でその施設を撤去し,有害物質を除去しなければならなくなる。
そのようになってしまった場合における報復のため,当該データセンターの経営者を処罰する法制を確立し,執行する必要があると思われる。たぶん,中国では既にそうなっている。

 

 

 

 

 

| | コメント (0)

より以前の記事一覧