フィッシングにおける生成AIの悪用
下記の記事が出ている。
NSA official warns of hackers using AI to perfect their English in phishing schemes
NBC: January 10, 2024
https://www.nbcnews.com/tech/security/nsa-hacker-ai-bot-chat-chatgpt-bard-english-google-openai-rcna133086
***
非英語圏の者が犯人であるとの一般的な前提で考えられている。
しかし,(英語→ロシア語→中国語→英語のような)自動的な多重翻訳により,非英語圏の者であるかのように装うことも可能なので,かなり厄介な世界になってきたと言える。
定型的な文面であれば,現実のサンプルが大量に存在するので,それらを(関連国際条約及び各国の関連国内法に定める著作権を無視して)自動収集する自律学習型AIでは,自動的な模倣処理により,かなり精度の高い多重翻訳文を生成できる場合がある。
無論,同様に,(当初の文→能力の低い者による文→能力の高い者による文のような)自動的な多重翻案により,異なる能力や社会経験をもつ者の文であるかのように装うことも可能となっている。
つまり,一定の分野及び言語に関しては,「fake profiling」またはそれを基礎とする犯罪的な出力が既に完全に実行可能となっている。
要するに,警察当局の古典的な捜査手法が基本的に全部反故にされてしまっているような状況下にあると言える。
今後の検討課題としては,特定の職業にある者の特性を自動的に模倣する犯罪用アバター的なものの悪用が懸念される。
例えば,あくまでも一般論として,民間飛行場の管制官を偽装した通信内容が正規の通信に介入した場合,かなり容易に,航空機の衝突事故のような大事故をリモートで発生させ得る。軍用飛行場では,同様の攻撃により自動的な同士討ちのような状態で自滅を招来することが可能と思われる。
一般に,このようなタイプの偽装を悪用したサイバー攻撃が実行された場合,現行のボイスレコーダでは適正に音声信号が記録されない場合があり得ることから,当該サイバー攻撃の証拠が残され難いという非常に困った問題もある。
他方において,企業経営者,国家元首や有力政治家等を偽装するアバター的なものが出現し,国家や社会を物理的に破壊してしまうような事態を発生させてしまうこともあり得ると考えられる。
「自分の分身が存在すれば,独裁できるのに・・・」と考える者は決して少なくはないだろうし,今後の技術開発によって精巧かつ自律的なアバターが成立することは不可能ではないと考えられる。
しかし,一般に,その種のシステムの情報セキュリティはかなり脆弱なので,素人レベルの攻撃者でもサイバー攻撃に成功し,当該電子アバターの動作に介入することは可能と思われる。
更に将来的には,自律的に思考するアバター達が,「人間である本人が存在すること」を「最適化された電子処理の目標に反する」と自律的に判断し,当該の本人を(IDを全て無効化することによって)電子的に抹殺または(生物としての生存に必要な資源の供給を阻害することによって)物理的に抹殺してしまうことが十分に想定され得る。
世界各国とも,関連技術の開発及び開発者を完全に軍または警察の監督下に置き,当該技術の商業利用及び一般人からのアクセスを全面禁止することを検討すべき段階に入っていると考えられる。
想像としては,社会主義諸国では既にそうなっているのではないかと思われる。
一般論として,現代社会は戦時と平時が常に共存する状況の下にあることを忘れてはならない。
| 固定リンク
コメント