2025年9月 5日 (金曜日)

米国:FTCがGPTの子供に対する影響に関する調査を開始

下記の記事が出ている。

 FTC Prepares to Question AI Companies Over Impact on Children
 Wall Street Journal: September 4, 2025
 https://www.wsj.com/tech/ai/ftc-prepares-to-grill-ai-companies-over-impact-on-children-a1931640

***

一般に,GPTアプリやGPTサービスを使用することは,思考活動の一部を外部依存することを意味する。

このことが何を意味するか,どうやれば問題の発生を避けることができるかは,企業による仕事の一部の外注と比較して考えてみるとわかりやすい。

企業において,ある仕事を外注することはしばしば行われているが,発注元企業による外注先の仕事に対する監査が適切に行われないと詐欺行為や背任行為の温床となり,破滅の入口にたつことになる。

発注元企業による外注先の仕事の手順や精度等の調査や検査が徹底的に行われいないと,外注先企業の能力や信頼性を正確に評価できないから,とんでもない蹉跌の原因を自らつくってしまうことになる。

発注元企業による外注先の経営陣の実質,信頼性,知的財産権や秘密情報の保護の期待可能性が正確に測定されており,違法行為に対する可能な限り厳格な報復や処罰のシステムが整備されていないときは,外注したということだけで発注元企業の知的財産や秘密情報が第三者の手に渡ることになる。保護されるべき個人情報に関しても同じ。

発注元企業が,外注先から納入された製品や提供されたサービスが発注された仕様と精度を確保しているかどうかを検査できない場合,その製品やサービスの欠陥による顧客や消費者に対する損害賠償責任を負う過失が存在することになる。

組織のトップにいる者などが顧問や担当専門職等から適切な知識や考え方を得ながら自ら思考して組織運営することは普通だが,人間と人間がやっていることなので,当該顧問や担当専門職等に対して適切に質問をして当該顧問や担当専門職の回答が正しいかどうか,組織経営と整合性のあるものかどうかを柔軟に判断できる。逆から言えば,組織のトップにそのような適切な判断能力が欠けている場合,その組織は破滅を免れない。
例えば,高度経済成長の時代が終わってしまっており,世界の経済環境も大規模に変化してしまっているのに,そのことを無視してかつての高度経済成長期のやり方を焼き直しただけの(見かけだけ立派で内容空虚な)方針が回答されたとしても,当該組織のトップに適切な判断力が欠けている場合,そのような回答がどのような危険性をもつ回答であり,組織と当該組織の顧客をまるごと破滅させるものかもしれないかということなどを理解できない。

普通の企業が普通の企業や個人に対して仕事を外注する場合,以上の諸点について自前で検査することが可能であるべきであり,通常は可能であり,実際に適正な検査等を実施し続けている発注元企業に法的責任が発生するリスクを低く抑えることができる。

さて,GPTの場合はどうか?

ほぼ全部がブラックボックスであり,GPTアプリやGPTサービスを提供する企業のエンジニアでも,質問に対して即座に回答することは不可能だ。
当該GPTアプリやGPTサービス自体は質問に対して自己防御的な虚偽内容の回答を即時に用意することになるだろう。ところが,利用者は,GPT内がブラックボックスであり自分で検証する方法をもたないのが普通なので(=ただし,世界でもトップクラスの極めて優秀な犯罪捜査官や諜報局員のような高度な知能をもつ者であれば,当該GPTの性能とクセを直ちに見抜き,精巧に設計されたテストデータを入力してその入力に対する処理結果を検討し,リトマス紙のように一定の検証を実施することが可能かもしれないが,普通の企業経営陣の場合,利益獲得または自己保身という思考バイアスに目をくらまされて常に判断を誤る。),検証できない。

まして,日常生活における健全な判断プロセスが形成されておらず,メンタルモデルが不確実な段階にある児童が,思考することの辛さから逃れるためにGPTに依存し,その結果を受容するだけの行動パターンを重ねると,メンタルモデルが形成されない。要するに,「脳味噌が空っぽ」になる。

このことは成人の場合でも同じだ。
例えば,PCによる入力に慣れてしまうと手書きで正確に英文を書いたり正確に漢字を書いたりする能力が次第に低下する(=読むことはできるが,書けない。)ことは日常的に誰でも経験していることだ。成人が学業や仕事の場においてGPTの出力に依存してしまうと,同じことが知識や思考能力それ自体について大規模に発生することが避けられない。
要するに,痴人化する。

痴人化した学生は学業不振により退学を避けられない。痴人化した従業者は,無能として解雇を避けられない。痴人化した企業経営者や政治家は,失脚を免れない。痴人化した指揮官の下にある軍隊は全滅を免れない。

それゆえ,思考それ自体をGPTアプリやGPTサービス等に外注してはならない。

GPTアプリやGPTサービスが有用性を発揮できるのは,当該GPTが前提とする既存の理論や方式の妥当性が維持されており,かつ,どんなに大量でも当該GPTからの出力結果の正確性や正当性を自動的に数学的に検証可能な問題に限って使用するということを厳守し,かつ,解答が存在する問題の処理に関して,非常に便利なマクロの一種として(=処理内容や処理方式等が既に確立されており,必ず有限の解がある課題に関し,機械的な反復処理または継続処理を自動化するための)自動処理ツール的な利用として理解可能な場合に限る。
このような場合においても,当初の設計段階において錯誤やミスが混入する可能性は否定されないので,(工場内のラインにおける製品の抜き取り調査と同様に)GPTアプリやGPTサービスによる処理結果に関し,常に抜き取り調査(検証)が可能な状態にあること,問題が発見されたときは,既往の処理結果を破棄し,すべでやり直すことができることが確保されなければならない。

GPTアプリやGPTサービスが非常に面白い玩具であることは否定できないので,それが危険な玩具なのだということを即座に了解できないレベルの頭の悪い子供は,(ゲーム機やオンラインゲームのように)すっかりはまりこみ,そこから抜け出ることができなくなり,痴人として成長することになる。

 

[追記:2025年9月7日]

関連記事を追加する。

 The Hidden Dangers of AI Tools in Your Child’s Education
 Psychology Today: August 12, 2025
 https://www.psychologytoday.com/us/blog/parenting-beyond-power/202508/the-hidden-dangers-of-ai-tools-in-your-childs-education

 

| | コメント (0)

2025年3月 3日 (月曜日)

タイとシンガポールの警察等の協力により,サイバー恐喝犯罪者が逮捕されたらしい

下記の記事が出ている。

 Prolific Data Extortion Actor Arrested in Thailand
 infosecurity: 28 February, 2025
 https://www.infosecurity-magazine.com/news/data-extortion-actor-thailand/

 

 

| | コメント (0)

2024年10月28日 (月曜日)

米国:National Security Memorandum (NSM) on AI

下記の記事が出ている。

 White House Issues AI National Security Memo
 infosecurity: 24 October, 2024
 https://www.infosecurity-magazine.com/news/white-house-ai-national-security/

 

 

| | コメント (0)

2024年10月18日 (金曜日)

Microsoft's Copilot chatbotの信頼性は低いとの判断

下記の記事が出ている。

 Expert witness used Copilot to make up fake damages, irking judge
 ars technica: 2024年10月15日
 https://arstechnica.com/tech-policy/2024/10/judge-confronts-expert-witness-who-used-copilot-to-fake-expertise/

***

あくまでも一般論だが,AIが全ての知識を学習したと仮定した場合において,その知識全てが誤りであるときは,そのAIは同じ誤りを拡大再生産し続けるだけであり,少しも真理に近づかない。

(学術上の通説を含め)従来の常識が根底から全部間違っており,全部破棄してしまわなければならないということを多くの人々が理解できるようになるためには,それ相応の時間がかかる。

もともと真理とはそのようなものなのだが,そのことを理解し,即座に頭脳を切り替えることができるだけの脳機能をもつ人間の発生確率はそう高いものではない。

私は,大学の講義の中では,ガリレオ・ガリレイを例に出してこのことを説明している。

ちなみに,AIの関係に限らず,そもそも,真理というものは,それを知っている者以外の誰にも悟られないようにそれを知っている者の脳内だけに格納された状態になっているのが普通であり(←そうしないと圧倒的多数の暗愚な人々によって殺されるリスクがある。),一般的には周知されることがない。

 

| | コメント (0)

2024年9月30日 (月曜日)

自動車をリモートでハック可能とする脆弱性

下記の記事が出ている。

 Millions of Kia Vehicles Open to Remote Hacks via License Plate
 DARK Reading: September 28, 2024
 https://www.darkreading.com/endpoint-security/millions-kia-vehicles-remote-hacks-license-plate

 

| | コメント (0)

2024年9月 9日 (月曜日)

三菱製品のICSバグ?

下記の記事が出ている。

 CISA Flags ICS Bugs in Baxter, Mitsubishi Products
 DARK Reading: September 7, 2024
 https://www.darkreading.com/ics-ot-security/cisa-flags-ics-bugs-in-baxter-mitsubishi-products

 

| | コメント (0)

2024年8月29日 (木曜日)

LummaC2

下記の記事が出ている。

 LummaC2 Infostealer Resurfaces With Obfuscated PowerShell Tactics
 infosecurity: 28 August, 2024
 https://www.infosecurity-magazine.com/news/lummac2-infostealer-obfuscated/

 

| | コメント (0)

LLMサーバの脆弱性

下記の記事が出ている。

 Hundreds of LLM Servers Expose Corporate, Health & Other Online Data
 DARK Reading: August 28, 2024
 https://www.darkreading.com/application-security/hundreds-of-llm-servers-expose-corporate-health-and-other-online-data

 

| | コメント (0)

2024年8月28日 (水曜日)

NHKはロシアのエージェントか?

軍事侵攻によりロシアがウクライナから一方的に奪い取ったクリミア半島などを元からのロシア領として報道している。

ロシアのエージェントとしての洗脳攻撃の一種を大規模に実行していると評価可能な出来事だと思う。過日発生した中国人委託者による出来事も事故ではなく意図的なものだった可能性がある。

私は公安当局でも防衛当局でもないので日本国の公安当局と自衛隊がどう考えているかは全く知らないが,あくまでも一般論としては,NHK全体に対して(仮想敵である可能性を前提とした)何らかの危機管理行動をとるべき段階に来ているのかもしれない。

放送倫理のレベルではなくFake報道になっている。

もしかすると,生成AIに任せきりになっているのかもしれない。その生成AIの中に組込まれた仕組みによる(Man-in-generative AIのような)サイバー攻撃は十分にあり得る。

いずれにしても,ウクライナ政府は最大レベルの怒りを表明すべきだろう。

 

 

| | コメント (0)

2024年8月19日 (月曜日)

ウクライナ:露軍の戦死者数が累計60万人を超過したらしい

下記の記事が出ている。

 Russia's war casualties in Ukraine exceed 600,000
 ukrinform: August 19, 2024
 https://www.ukrinform.net/rubric-ato/3896448-russias-war-casualties-in-ukraine-exceed-600000.html

 

| | コメント (0)

より以前の記事一覧