2024年6月17日 (月曜日)

ZkTeco

下記の記事が出ている。

 Kaspersky Finds 24 Flaws in Chinese Biometric Hardware Provider
 infosecurity: 13 June, 2024
 https://www.infosecurity-magazine.com/news/kaspersky-flaws-chinese-biometric/

「きしみ」かもしれない。

 

| | コメント (0)

2024年6月15日 (土曜日)

病院へのサイバー攻撃は病院の機能を物理的に破壊する

下記の記事が出ている。

 The Aftermath of a U.K. Cyberattack: Blood Shortages and Delayed Operations
 New York Times: June 13, 2024
 https://www.nytimes.com/2024/06/13/world/europe/nhs-london-hospital-cyberattack.html

***

病院の診療システムや電源管理システム等に対するサイバー攻撃が物理的な全面的破壊の結果をもたらし得ることは当然として,間接的な決済システムの一種である健康保険システムに対してサイバー攻撃が実行された場合,もっと悲惨なことが起きるかもしれない。

一般に,健康保険等の取扱いを完全電子化した場合,それでなくても防御の甘い厚生労働省関連のサーバにサイバー攻撃があったということだけで,日本国の全ての病院及び介護施設等が機能停止することになり得る。

これに対し,全面電子化を断念し,利用者や診療機関の選択により,紙の保険証の利用が温存されていれば,少なくとも個人開業医等の小規模医療機関の機能の全面停止だけは回避し得る。

このことは医療分野に限定されない。

それゆえ,全面的な電子化政策は,「亡国」の促進そのものであると言える。

基本法則として,単調な世界では,単調な攻撃により全破壊がもたらされ得る。

***

同様のことは,生成AIないしLLMでも同じだ。生成AIによって生成される真実とは関係のない虚偽内容のデータが広く流通するようになると,そのような虚偽内容のデータも生成AIシステムは(違法な底引き網漁法と同じように何でもかんでもどんどん捕捉・吸収・複製して)「学習」するため,自己破滅的に全面崩壊が拡大・促進・複合化されることになる。

そのような事態を避けるためには,(仮想現実の技術を含め)真実とは異なる内容のデータの生成を全て禁止するしかないのだが,そうなると,生成AIの「うまみ」のようなものがなくなってしまうので,誰もそうのようにしようとはしないだろう。

他方,違法なデータの出力を自律的(autonomous)に抑止する仕組みはない。生成AIは,知性,理性,倫理観を一切もたない単なる自動処理(automated processing)の仕組みの一種に過ぎない。違法行為に対する反対動機を自動的に生成し,自己抑制する機能はもともとない。つまり,生成AIやLLMは,もともと知能(intelligence)の一種ではない。

結局,生成AIに関し,自己破滅的な全面崩壊を避ける方法はないことになる。

いずれ現実にそうなるときが必ず来る。全ての関連投資が泡沫となって消える。

 

| | コメント (0)

2024年6月11日 (火曜日)

Operation Crimson Palace

下記の記事が出ている。

 Chinese Threat Clusters Triple-Team High-Profile Asia Government Org
 DARK Reading: June 5, 2024
 https://www.darkreading.com/threat-intelligence/chinese-threat-clusters-triple-team-high-profile-asian-government-org

 

| | コメント (0)

2024年6月10日 (月曜日)

EmailGPTの脆弱性

下記の記事が出ている。

 EmailGPT Exposed to Prompt Injection Attacks
 infosecurity: 7 June, 2024
 https://www.infosecurity-magazine.com/news/emailgpt-exposed-prompt-injection/

 

| | コメント (0)

2024年5月30日 (木曜日)

911 S5

下記の記事が出ている。

 Is Your Computer Part of ‘The Largest Botnet Ever?’
 Krebs on Security: May 29, 2024
 https://krebsonsecurity.com/2024/05/is-your-computer-part-of-the-largest-botnet-ever/

 

 

| | コメント (0)

2024年5月29日 (水曜日)

VPNが狙われている?

下記の記事が出ている。

 Check Point Urges VPN Configuration Review Amid Attack Spike
 infosecurity: 28 May, 2024
 https://www.infosecurity-magazine.com/news/check-point-urges-vpn-configuration/

 

[追記:2024年6月7日]

関連記事を追加する。

 Attacks Surge on Check Point's Recent VPN Zero-Day Flaw
 DARK Reading: June 7, 2024
 https://www.darkreading.com/cyberattacks-data-breaches/attacks-surge-on-check-points-recent-vpn-zero-day-flaw

| | コメント (0)

2024年5月27日 (月曜日)

生成AIボイスチェンジャーアプリのサイバー攻撃のための悪用

下記の記事が出ている。

 AI Voice Generator App Used to Drop Gipy Malware
 DARK Reading: May 25, 2024
 https://www.darkreading.com/threat-intelligence/ai-voice-generator-used-to-drop-gipy-malware

一般に,生成AIには自律的な「知性」も「理性」も「倫理観」もないので,その利用者の意図や目的とは無関係に,要求された仕事を処理し,求められた出力を生成する。

人間であれば,直観的に怪しいと感じたら,上司に相談するとか,警察に通報するとか,(状況次第では)サービス提供を拒絶するとか,悪用を防止するための行動をとることがあり得るが,生成AIは,断片的に特化された機能を自動実行する仕組みの一種に過ぎず,統合的な「人格」のようなものは最初から全く存在しないので,そもそも悪用防止の機能が全く含まれていない。

それゆえ,私は,最近,「人工知能」という語を使用することをやめ,単に「自動化された処理」と呼称すべきだということを提唱している。

そもそも単なる自動化された処理に過ぎないものでも外形的要素だけから「知能」として判定すべきだという誤った考え方を植え付けてしまったことについては,チューリングの責任が非常に大きい。

しかし,彼は,本当は,自然人の生体脳における「知能」の本質を全く理解していなかったと思われる。

それゆえ,これまで,私は,チューリングに対してあまり敬意を表してこなかったし,今後もそうだろうと思う。

 

 

| | コメント (0)

2024年5月23日 (木曜日)

中国のサイバー攻撃者が使用している連絡・指示用ネットワーク?

下記の記事が出ている。

 Chinese Hackers Rely on Covert Proxy Networks to Evade Detection
 infosecurity: 22 May, 2024
 https://www.infosecurity-magazine.com/news/chinese-apt-orb-networks/

この記事の信頼性は不明。

あくまでも一般論として,「ある程度まで通信内容を傍受できていなければ,このような内容の報道もあり得ない」という一般的な関係は成立しそうだと思う・

 

| | コメント (0)

2024年5月20日 (月曜日)

Slack AI

下記の記事が出ている。

 Slack users horrified to discover messages used for AI training
 ars technica: May 18, 2024
 https://arstechnica.com/tech-policy/2024/05/slack-defends-default-opt-in-for-ai-training-on-chats-amid-user-outrage/

 

| | コメント (0)

2024年5月16日 (木曜日)

Googleの生成AIシステムによる合成文の電子透かしツール

下記の記事が出ている。

 Google Expands Synthetic Content Watermarking Tool to AI-Generated Text
 infosecurity: 15 May, 2024
 https://www.infosecurity-magazine.com/news/google-synthid-ai-text/

現実には,電子透かし技術は,ほとんど無力だ。

ブラウザで表示可能なテキストである限り,プレーンテキストのソースだけ抜き出し,または,プレーンテキスト文として編集することが可能であり,そのようなことが自動的には実行できないような環境が存在したとしても,眼で読み,手で入力して,オフラインでテキストを複製することが常に可能なので,その意味で,この種の問題に関し,電子透かし技術は常に無力だ。

生成AIによる合成画像に関しても,モニタの画面表示を別のカメラ(特に非デジタルのアナログ式カメラ)で写真に撮り,オフラインで編集すれば,元の合成画像の中に含まれている全ての電子透かしを無力化することができるので,やはり電子透かし技術は常に無力だ。

対処方法としては,研究室等の中だけに限定された調査研究目的による場合などを除き,生成AIサービスの提供及び利用を原則として禁止し,違反行為に対する重罰を導入することしかないと考えられる。

Googleの非常に優れた経営陣がそのことを知らないはずがないので,各国のAI対応法案による制裁を逃れるための工夫の一種に過ぎないのではないかと考えられる。

私は,この種の問題への対処としての電子透かしの有用性を信じていない。

***

私の担当科目においてオンラインで提出させている小テストの回答の中にも自動生成によるものではないかと疑われるものが含まれることがある。

内容的に粗悪なものである場合には,特に対処を検討することなく,単純に0点として採点している。

内容的にそれなりにまとまりのあるものである場合,提出者と個別に面談して質問し,即座に合理的な回答ができない場合には非違行為として判定し,大学の学則に定める処分を検討しようと考えている。

どちらであるのかが明確ではない場合(特に,レガシーな方法の一種として,人間による回答用テンプレートを使いまわしているような場合)には,警告をした上で,様子を見ることにしている。警告に従わないときは,大学の学則に定める処分を検討しようと考えている。

生成AIとは無関係な,人間による単純な著作権法違反行為は普通に存在するので,そのような違法行為に対しても同様の対処をしている。

明治大学の場合,著作権法違反行為のような違法行為があった場合,所定の手続を経て,明治大学の情報システムへのアクセス資格が停止または取消されることがある。
その場合,授業の連絡等を受けることができなくなり,また,レポートの提出等ができなくなる。当該非違行為のあった科目に限定されず,明治大学の情報システムへのアクセス資格が全面的に停止または取消となるので,当該年度における他の科目も自動的に受講不能となり,当該年度に取得すべき単位の取得ができなくなる。その結果として,卒業年度の場合には,卒業に必要な単位を取得できなくなり,留年ということがあり得る。

 

| | コメント (0)

より以前の記事一覧