2024年5月28日 (火曜日)

Open AIを相手方とする著作権訴訟の現況に関するWashington Postの記事

下記の記事が出ている。

 The media bosses fighting back against AI — and the ones cutting deals
 Washington Post: May 27, 2024
 https://www.washingtonpost.com/style/media/2024/05/27/ai-media-barry-diller-iac-nyt/

 

| | コメント (0)

2024年5月16日 (木曜日)

Googleの生成AIシステムによる合成文の電子透かしツール

下記の記事が出ている。

 Google Expands Synthetic Content Watermarking Tool to AI-Generated Text
 infosecurity: 15 May, 2024
 https://www.infosecurity-magazine.com/news/google-synthid-ai-text/

現実には,電子透かし技術は,ほとんど無力だ。

ブラウザで表示可能なテキストである限り,プレーンテキストのソースだけ抜き出し,または,プレーンテキスト文として編集することが可能であり,そのようなことが自動的には実行できないような環境が存在したとしても,眼で読み,手で入力して,オフラインでテキストを複製することが常に可能なので,その意味で,この種の問題に関し,電子透かし技術は常に無力だ。

生成AIによる合成画像に関しても,モニタの画面表示を別のカメラ(特に非デジタルのアナログ式カメラ)で写真に撮り,オフラインで編集すれば,元の合成画像の中に含まれている全ての電子透かしを無力化することができるので,やはり電子透かし技術は常に無力だ。

対処方法としては,研究室等の中だけに限定された調査研究目的による場合などを除き,生成AIサービスの提供及び利用を原則として禁止し,違反行為に対する重罰を導入することしかないと考えられる。

Googleの非常に優れた経営陣がそのことを知らないはずがないので,各国のAI対応法案による制裁を逃れるための工夫の一種に過ぎないのではないかと考えられる。

私は,この種の問題への対処としての電子透かしの有用性を信じていない。

***

私の担当科目においてオンラインで提出させている小テストの回答の中にも自動生成によるものではないかと疑われるものが含まれることがある。

内容的に粗悪なものである場合には,特に対処を検討することなく,単純に0点として採点している。

内容的にそれなりにまとまりのあるものである場合,提出者と個別に面談して質問し,即座に合理的な回答ができない場合には非違行為として判定し,大学の学則に定める処分を検討しようと考えている。

どちらであるのかが明確ではない場合(特に,レガシーな方法の一種として,人間による回答用テンプレートを使いまわしているような場合)には,警告をした上で,様子を見ることにしている。警告に従わないときは,大学の学則に定める処分を検討しようと考えている。

生成AIとは無関係な,人間による単純な著作権法違反行為は普通に存在するので,そのような違法行為に対しても同様の対処をしている。

明治大学の場合,著作権法違反行為のような違法行為があった場合,所定の手続を経て,明治大学の情報システムへのアクセス資格が停止または取消されることがある。
その場合,授業の連絡等を受けることができなくなり,また,レポートの提出等ができなくなる。当該非違行為のあった科目に限定されず,明治大学の情報システムへのアクセス資格が全面的に停止または取消となるので,当該年度における他の科目も自動的に受講不能となり,当該年度に取得すべき単位の取得ができなくなる。その結果として,卒業年度の場合には,卒業に必要な単位を取得できなくなり,留年ということがあり得る。

 

| | コメント (0)

2024年5月14日 (火曜日)

AIにより自動的に生成されたコードがオープンソースに含まれているという問題

下記の記事がない。

 AI-Generated Code: A New Link in the Software Supply Chain
 DARK Reading: May 13, 2024
 https://www.darkreading.com/vulnerabilities-threats/ai-generated-code-a-new-link-in-the-software-supply-chain

AIにはもともと知性や理性というものが存在し得ない。違法なコード生成処理であっても「反対動機」を形成して自己抑制するということがない。

この記事及びその中で参照されている報告書でも触れられているとおり,例えば,第三者が権利を保有している著作物の全部または一部を違法複製して自動的にコードを生成する行為を「著作権法に違反する違法行為である」と認識して自動的に停止してしまうような法令遵守機能のような自動処理機能はない。

AIは「知能」ではないので,当然の結果だと言える。

そのような自動的に生成された違法なコードがオープンソースの一種として組み込まれているソフトウェア製品であるかどうかを自動的に監視し,違法なコードを自動的に削除してしまうような仕組みは現在のところ実用化されているとは言えない。

「artificial intelligence」という語を廃止して,単に「automated processing」という語だけを使用するようにしたほうが良いと考えられる。

 

 

| | コメント (0)

2024年3月30日 (土曜日)

テネシー州:Elvis Act

下記のとおり公報されている。

 Gov. Lee Signs ELVIS Act Into Law - Tennessee First in the Nation to Address AI Impact on Music Industry
 Office of Governor: March 21, 2024
 https://www.tn.gov/governor/news/2024/3/21/photos--gov--lee-signs-elvis-act-into-law.html

 

 

| | コメント (0)

2024年3月20日 (水曜日)

ディープフェイク音楽のスタートアップVoicifyに対する本格的な訴訟

下記の記事が出ている。

 ‘Deepfake’ music start-up Voicify in copyright row
 The Times UK: March 18, 2024
 https://www.thetimes.co.uk/article/deepfake-music-start-up-voicify-in-copyright-row-q2bsg2ql5

 AI vocal cloning app Voicify offers 3,000 deepfake models to replicate artists’ voices. Now it faces legal action from the UK’s music industry
 Music Business World Wide: March 18, 2024
 https://www.musicbusinessworldwide.com/jammable-formerly-known-as-voicify-offers-3000-ai-models-to-clone-artists-voices-now-it-faces-legal-action-from-the-uks-music-industry12/

 

| | コメント (0)

2024年3月17日 (日曜日)

New York Times対Open AI+Microsoftの現況

下記の記事が出ている。

 New York Times accuses OpenAI of ‘spin’ in copyright row
 The Times UK: March 13, 2024
 https://www.thetimes.co.uk/article/new-york-times-accuses-openai-of-spin-in-copyright-row-gvg0rkp6h

 

| | コメント (0)

2024年2月 6日 (火曜日)

EUのAI法案に対する音楽業界の反応

下記の記事が出ている。

 Music industry welcomes EU member states agreeing AI Act
 Complete Music Update: February 5, 2024
 https://completemusicupdate.com/music-industry-welcomes-eu-member-states-agreeing-ai-act/

 

 

 

 

| | コメント (0)

2024年1月15日 (月曜日)

フィッシングにおける生成AIの悪用

下記の記事が出ている。

 NSA official warns of hackers using AI to perfect their English in phishing schemes
 NBC: January 10, 2024
 https://www.nbcnews.com/tech/security/nsa-hacker-ai-bot-chat-chatgpt-bard-english-google-openai-rcna133086

***

非英語圏の者が犯人であるとの一般的な前提で考えられている。

しかし,(英語→ロシア語→中国語→英語のような)自動的な多重翻訳により,非英語圏の者であるかのように装うことも可能なので,かなり厄介な世界になってきたと言える。
定型的な文面であれば,現実のサンプルが大量に存在するので,それらを(関連国際条約及び各国の関連国内法に定める著作権を無視して)自動収集する自律学習型AIでは,自動的な模倣処理により,かなり精度の高い多重翻訳文を生成できる場合がある。
無論,同様に,(当初の文→能力の低い者による文→能力の高い者による文のような)自動的な多重翻案により,異なる能力や社会経験をもつ者の文であるかのように装うことも可能となっている。

つまり,一定の分野及び言語に関しては,「fake profiling」またはそれを基礎とする犯罪的な出力が既に完全に実行可能となっている。

要するに,警察当局の古典的な捜査手法が基本的に全部反故にされてしまっているような状況下にあると言える。

今後の検討課題としては,特定の職業にある者の特性を自動的に模倣する犯罪用アバター的なものの悪用が懸念される。
例えば,あくまでも一般論として,民間飛行場の管制官を偽装した通信内容が正規の通信に介入した場合,かなり容易に,航空機の衝突事故のような大事故をリモートで発生させ得る。軍用飛行場では,同様の攻撃により自動的な同士討ちのような状態で自滅を招来することが可能と思われる。
一般に,このようなタイプの偽装を悪用したサイバー攻撃が実行された場合,現行のボイスレコーダでは適正に音声信号が記録されない場合があり得ることから,当該サイバー攻撃の証拠が残され難いという非常に困った問題もある。

他方において,企業経営者,国家元首や有力政治家等を偽装するアバター的なものが出現し,国家や社会を物理的に破壊してしまうような事態を発生させてしまうこともあり得ると考えられる。
「自分の分身が存在すれば,独裁できるのに・・・」と考える者は決して少なくはないだろうし,今後の技術開発によって精巧かつ自律的なアバターが成立することは不可能ではないと考えられる。
しかし,一般に,その種のシステムの情報セキュリティはかなり脆弱なので,素人レベルの攻撃者でもサイバー攻撃に成功し,当該電子アバターの動作に介入することは可能と思われる。
更に将来的には,自律的に思考するアバター達が,「人間である本人が存在すること」を「最適化された電子処理の目標に反する」と自律的に判断し,当該の本人を(IDを全て無効化することによって)電子的に抹殺または(生物としての生存に必要な資源の供給を阻害することによって)物理的に抹殺してしまうことが十分に想定され得る。

世界各国とも,関連技術の開発及び開発者を完全に軍または警察の監督下に置き,当該技術の商業利用及び一般人からのアクセスを全面禁止することを検討すべき段階に入っていると考えられる。
想像としては,社会主義諸国では既にそうなっているのではないかと思われる。

一般論として,現代社会は戦時と平時が常に共存する状況の下にあることを忘れてはならない。

 

| | コメント (0)

2024年1月 8日 (月曜日)

不気味の谷

下記の記事が出ている。

 人は直感的に「AIが生成した絵画」より人間の絵を好むことが判明、AI作品は「不気味の谷現象」に陥っている可能性
 GIGAZINE: 2024年01月07日
 https://gigazine.net/news/20240107-ai-human-art/

 

| | コメント (0)

2023年12月23日 (土曜日)

Appleの生成AIと関連する知的財産権の処理方針?

下記の記事が出ている。

 Apple Explores A.I. Deals With News Publishers
 New York Times: December 22, 2023
 https://www.nytimes.com/2023/12/22/technology/apple-ai-news-publishers.html

新聞社や出版社だけではなく,個人の著作物にも権利がある。自動学習型のAIとは,要するに,自動編集機能をもつ大規模データベースの一種に過ぎないので,知的財産権(特に著作権及び営業秘密)と関連する国際条約と各国の法令に定めるところを厳守しなければならない。

そうでなければ,違法な存在となる。

リアルにおいて違法なことは,デジタルにおいても違法だ。

 

 

 

| | コメント (0)

より以前の記事一覧