2024年6月16日 (日曜日)

Keep your humanity

下記の記事が出ている。

 How Pope Francis became the AI ethicist for world leaders and tech titans
 Washington Post: June 14, 2024
 https://www.washingtonpost.com/world/2024/06/14/pope-francis-g7-ai/

 

| | コメント (0)

2024年6月15日 (土曜日)

病院へのサイバー攻撃は病院の機能を物理的に破壊する

下記の記事が出ている。

 The Aftermath of a U.K. Cyberattack: Blood Shortages and Delayed Operations
 New York Times: June 13, 2024
 https://www.nytimes.com/2024/06/13/world/europe/nhs-london-hospital-cyberattack.html

***

病院の診療システムや電源管理システム等に対するサイバー攻撃が物理的な全面的破壊の結果をもたらし得ることは当然として,間接的な決済システムの一種である健康保険システムに対してサイバー攻撃が実行された場合,もっと悲惨なことが起きるかもしれない。

一般に,健康保険等の取扱いを完全電子化した場合,それでなくても防御の甘い厚生労働省関連のサーバにサイバー攻撃があったということだけで,日本国の全ての病院及び介護施設等が機能停止することになり得る。

これに対し,全面電子化を断念し,利用者や診療機関の選択により,紙の保険証の利用が温存されていれば,少なくとも個人開業医等の小規模医療機関の機能の全面停止だけは回避し得る。

このことは医療分野に限定されない。

それゆえ,全面的な電子化政策は,「亡国」の促進そのものであると言える。

基本法則として,単調な世界では,単調な攻撃により全破壊がもたらされ得る。

***

同様のことは,生成AIないしLLMでも同じだ。生成AIによって生成される真実とは関係のない虚偽内容のデータが広く流通するようになると,そのような虚偽内容のデータも生成AIシステムは(違法な底引き網漁法と同じように何でもかんでもどんどん捕捉・吸収・複製して)「学習」するため,自己破滅的に全面崩壊が拡大・促進・複合化されることになる。

そのような事態を避けるためには,(仮想現実の技術を含め)真実とは異なる内容のデータの生成を全て禁止するしかないのだが,そうなると,生成AIの「うまみ」のようなものがなくなってしまうので,誰もそうのようにしようとはしないだろう。

他方,違法なデータの出力を自律的(autonomous)に抑止する仕組みはない。生成AIは,知性,理性,倫理観を一切もたない単なる自動処理(automated processing)の仕組みの一種に過ぎない。違法行為に対する反対動機を自動的に生成し,自己抑制する機能はもともとない。つまり,生成AIやLLMは,もともと知能(intelligence)の一種ではない。

結局,生成AIに関し,自己破滅的な全面崩壊を避ける方法はないことになる。

いずれ現実にそうなるときが必ず来る。全ての関連投資が泡沫となって消える。

 

| | コメント (0)

2024年6月14日 (金曜日)

米国:国益重視のAI技術保護政策

下記の記事が出ている。

 Patriotism over profit: The US can’t allow Big Tech to sell out to China
 The Hill: June 13, 2024
 https://thehill.com/opinion/technology/4718714-big-tech-china-ai-dual-use/

 

 

| | コメント (0)

2024年6月13日 (木曜日)

EU:EU議会議員選挙を混乱させるための大規模サイバー攻撃

下記の記事が出ている。

 Dutch cyberattacks latest in EU election campaign marred by disruption and violence
 euronews: 7 June, 2024
 https://www.euronews.com/my-europe/2024/06/07/dutch-cyberattacks-latest-in-eu-election-campaign-marred-by-disruption-violence

 

 

| | コメント (0)

2024年6月11日 (火曜日)

Operation Crimson Palace

下記の記事が出ている。

 Chinese Threat Clusters Triple-Team High-Profile Asia Government Org
 DARK Reading: June 5, 2024
 https://www.darkreading.com/threat-intelligence/chinese-threat-clusters-triple-team-high-profile-asian-government-org

 

| | コメント (0)

2024年6月10日 (月曜日)

EmailGPTの脆弱性

下記の記事が出ている。

 EmailGPT Exposed to Prompt Injection Attacks
 infosecurity: 7 June, 2024
 https://www.infosecurity-magazine.com/news/emailgpt-exposed-prompt-injection/

 

| | コメント (0)

MetaのAIシステムに収集されたデータは削除できないとの指摘-EUの関連法令に違反の可能性

下記の記事が出ている。

 Meta uses “dark patterns” to thwart AI opt-outs in EU, complaint says
 ars technica: June 7, 2024
 https://arstechnica.com/tech-policy/2024/06/meta-to-train-undefined-ai-tech-on-facebook-users-posts-pics-in-eu/

一般に,開発者の立場にたってみると,「自分が学習したんだから,削除する義務などない」ということになりそうだが,自然人の脳内の記憶とコンピュータシステム内の記録保存(strage)とは異なる。

それゆえ,EUの個人データ保護法令でも日本国の個人情報保護法令でも同様に,収集されたデータの削除を求める権利を認めている。

このことは,今後のAI法においても同じとなる見込みであり,個人データについては,AIシステムであろうとなかろうと,とにかくコンピュータによって自動処理されるデータに対しては削除の権利がある。EU法においては,いつでも同意を撤回できる権利を定めているので,このことが一層明確となっている。

加えて.AIシステムによって(法定の除外事由なく)違法に収集され,自動的に複製や改変等の処理が実行されている第三者の著作物に該当するデータだけではなく,適法に収集されたデータであっても,(自然人が暗記した第三者の著作物の内容を生体脳の外に表出するときは,公正な引用の方式によらなければ違法になるし,許諾なく翻案・編集・改変することは全く認めらていないのと同様),生成AIによる処理結果としての出力は,(出典の明記を含め)「公正な引用」の要件を完全に満たさなければならず,その他,著作権法に定める全ての要件を満たさなければならない。

このようなことを他の分野における違法・適法の要件も加えて考えてみると,現在の大規模学習モデル(LLM)は,もし適法に運用しようとすれば,最初から成り立たないやり方だという意味で,本質的に違法なやり方である可能性が高い。

(全く無条件という意味で)自由に収集や改変等が可能なのは,(いかなる法令を適用した場合でも)完全にパブリックドメインとなっているデータだけだ。

また,そのようなあまりにも当然の大前提を全く無視し,LLMには法的問題が全くないという前提で論説を書こうとする弁護士や法学者等が存在する。
しかし,当該の論者が事理弁別能力のない病理的な状態にあるときは治療行為が必要なので除外するとして,それ以外の場合においては,(著作権法違反行為等の)違法行為の教唆行為または幇助行為に該当し得ると解される場合があり得る。
そのような場合には,関連する権利者団体は,断固とした処置をとるべきである。

 

| | コメント (0)

2024年6月 7日 (金曜日)

パリオリンピックの運営に対するサイバー攻撃の脅威

下記の記事が出ている。

 Russia Aims Cyber Operations at Summer Olympics
 DARK Reading: June 4, 2024
 https://www.darkreading.com/threat-intelligence/russia-cyber-operations-summer-olympics

 

| | コメント (0)

2024年6月 4日 (火曜日)

ドイツ: Michael Schumacherに関するAI生成によるインタビュー記事の適法性に関するミュンヘン労働裁判所の判断に対する評価

下記の記事が出ている。

 An official court ruling draws the line on AI use in journalism, but is it enough?
 The Hill: June 3, 2024
 https://thehill.com/opinion/technology/4697542-michael-schumacher-ai-court-ruling-journalism-ethics/

 

| | コメント (0)

2024年6月 3日 (月曜日)

ウクライナ:露軍の戦死者数が累計51万人を超過したらしい

下記の記事が出ている。

 Russia's combat losses in Ukraine rise to 511,130
 ukrinform: 3 June, 2024
 https://www.ukrinform.net/rubric-ato/3870749-russias-combat-losses-in-ukraine-rise-to-511130.html

 

| | コメント (0)

より以前の記事一覧