2026年2月12日 (木曜日)

法と情報研究会:第5回公開研究報告会

新型コロナの関係及び諸般の事情のため,法と情報研究会の公開研究会を開催できない状態が続いていたが,丸橋透先生をはじめ会員各位の協力により開催準備が進められ,2026年3月8日に第5回公開研究報告会を開催できることとなった。

私も研究報告することになった。雑駁な内容のものしか準備できないが,『ネットワーク社会の文化と法』の中で提示した幾つかの仮説が,仮説提示後30年を経過した現在,全部正しかったということが事実によって証明されたことを宣言し,かつ,これからの法学は何をすべきなのかに関する私見を提示する内容の研究報告としたいと思う。

開催要領は,下記のところで入手できる。

 第5回公開研究報告会
 http://cyberlaw.la.coocan.jp/Documents/LawandInformation_5thConference.pdf

 

 

| | コメント (0)

2025年12月25日 (木曜日)

生成AIに頼ると思考における多様性が衰退する?

下記の記事が出ている。

 画像生成AIと画像認識AIの生成ループを実行すると最終的にどんな指示でも「12種類のスタイル」に収束してしまうことが判明
 GIGAZINE: 2025年12月25日
 https://gigazine.net/news/20251225-ai-image-generators/

***

当然のことが述べられていると考える。しかも,美術の分野に限らず,経営判断のような場面でも同じことが起きる。

LLMは,要するに巨大な海賊船のようなものであり,他人がつくった産物を奪い,違法に模倣するということを繰り返すことによって成立している本質的に違法な存在なのだが,そもそも,世間に存在している表現物等の多様性には限界がある。それは,人間の表現において,既に模倣が繰り返されていることによる。

簡単に言えば,学習対象となる情報の段階で既に陳腐でステレオタイプ的なものしか存在しないので,そのようなものをどれだけ多数学習しても多様性や独創性が生ずることはない。

生成AIとは,そのようなつまらない玩具に過ぎない。独創性など全くない。

それゆえ,経営判断の分野で生成AIを使用しても,利用者である企業が他の企業に対して優位を得るということが決してあり得ないことが最初から予定されている。

例外として非常に優れた美術作品等は著作権によって守られているので,それを学習した結果を許諾なく模倣すれば違法な二次利用になる。

経営判断の場合も同じであり,他には知られておらず,優位性をもたらし得る企業経営上のノウハウ等は営業秘密として保護されている。そのようなノウハウ等を許諾なしに学習することは,単なるスパイ行為に過ぎず,違法行為となる。

***

これまで何度も述べたことではあるが,軍事用の機械制御目的のAI開発等の例外を除き,生成AIまたはLLM開発に投資しても財産を失うだけとなることだろう。

 

| | コメント (0)

2025年12月 7日 (日曜日)

AI引用?

GPT関連において一般に「AI引用」とされている自動処理の大半は,各国の公正な引用習慣を全く遵守しておらず,単なる海賊行為である。

被引用文書または被引用データの保有者の個別の事前の同意がある場合には違法性が阻却される。
しかし,そのような場合,今度は,違法なステルスマーケティングのリスクが生ずるので,そのリスクを消滅させるための自動的な処理が導入されていなければ違法な処理となる。

そのようなリスクを消滅させるための自動的な処理の例としては,「学習されることに同意した事業者のための商業宣伝広告」等の目立つ表示をすることなどが考えられる。
これは,AIビジネスを黒字転換させるために行われていることの一部である以上,消費者や一般市民を欺瞞的な行為から守るための当然の安全確保の一種だ。

以上は,初歩的な基礎事項の一部。そのような重要な点に全く触れることなく「AI引用」を推奨する者は,違法行為者またはその共犯者である確率が非常に高いと言える。

なお,ここで述べていることは,計画経済を基本とする国家においても妥当するのだが,(基本的に言論の自由がないため)国民がAIに反対すると国家警察による粛清の対象となり得るという点が自由主義諸国とは根本的に異なる。

 

 

 

| | コメント (0)

2025年12月 2日 (火曜日)

Open AIに対するサイバー攻撃

下記の記事が出ている。

 OpenAI Codex CLI Command Injection Vulnerability Let Attackers Execute Arbitrary Commands
 Cyber Security News: December 1, 2025
 https://cybersecuritynews.com/openai-codex-cli-vulnerability/

 OpenAI API user data exposed in Mixpanel hack
 SC Media: December 1, 2025
 https://www.scworld.com/brief/openai-api-user-data-exposed-in-mixpanel-hack

***

今後,黒字転換するために収益化の仕組みを導入するとなると,それに伴って,サイバー攻撃がますます増加すると予想される。

人々は金の流れるところに集まる。

犯罪者も金の流れるところに集まる。

 

| | コメント (0)

2025年11月30日 (日曜日)

Wizly

また「盗賊集団」または「国際的なプロパガンダ組織」が追加されたことになるのかもしれない。十分な警戒心を基礎とする慎重な対応が望まれる。

***

以下に述べることは,あくまでも一般論。

優れた知識は,何の苦労もなしに出現しない。

真に優れた知識は非常に乏しい。インターネット上で自由に収集可能な知識は,数量的には,レベルの低い情報や偽情報によって組成されているものが多いので,それらの情報を自動的に学習するAIシステムは,情報を学習すればするほどどんどん馬鹿になる。

そこで,当の本人や情報管理組織の許可を得なければ入手できない「価値の高い情報」が狙われる。企業間の競争において「企業秘密」が狙われ,投資等の関連で「インサイダー情報」が狙われるのと同じ構造の問題が存在していると言える。

LLMを基礎とする限り非常に多くのAI関連の組織が該当し得る「知識の盗賊集団」は,実際に専門的知識を生産している専門家の同意なく,当該専門者の苦労や誠意を踏みにじり,自分達の金銭的利益のために行動する。

著作権法等の特別法にとって対処することだけを考える非常に偏った法学者が存在することがそのような「知識の盗賊集団」に対する対処を誤らせている。

適用可能な法令を正確に検討すれば,例えば,刑法等の基本的な法令によってこのような「知識の盗賊集団」に対して対処可能(=処罰可能)であることを知ることができる。このことも「真の専門知識」の一つだ。

 

| | コメント (0)

2025年11月18日 (火曜日)

スパイに身も心も捧げる行為

下記の記事が出ている。

 企業からのデータ流出ルートは「ウェブブラウザでのコピペ」が最多
 GIGAZINE:2025年11月17日
 https://gigazine.net/news/20251117-browser-copy-paste-data-leak/

***

GPTやAIエージェントは,「誰のためのものか?」をよく考えるべきだと思う。

無論,ユーザである個人や企業や官公庁のためのものではない。

それらのサービスを提供しているごく少数の独占的な企業が何でもかんでもデータ収集してしまうための手段に過ぎない。

そのようにして収集されるデータには,企業秘密やプライバシーの属性をもつデータだけではなく,国防や諜報活動と関連する属性をもつデータも含まれる。

無差別なデータ収集なので,当然,そうなる。

 

[追記:2025年11月23日]

関連記事を追加する。

 Microsoft tries to head off the “novel security risks” of Windows 11 AI agents
 ars technica: 19 November, 2025
 https://arstechnica.com/gadgets/2025/11/new-windows-11-ai-agents-can-work-in-the-background-but-create-new-security-risks/

 

 

 

| | コメント (0)

2025年10月25日 (土曜日)

DACS:AIの時代における透明性,公正性及びクリエーターの権利の尊重に関する共同声明

下記のとおり,共同声明が出ている。

 Our joint statement calling for transparency, fairness and respect for creators’ rights in the age of AI
 DACS:Posted on 16/10/2025
 https://www.dacs.org.uk/news-events/joint-statement-on-creators-rights-in-age-of-ai

***

私は,基本的に賛成だ。

世界各国の著作権法制に完全に精通していないAI関連企業の経営者及びAI関連組織の代表者は,特に米国流のフェアユースしか知らない者は,ちゃんと勉強すべきだ。それらの人々は,自分のことを非常に優秀だと宣伝しているので,1週間もあれば世界中の全ての著作権制度に精通することなど簡単にできることだろう。

しかし,現実にはそのような経営者などいるはずがない。

そこで,各国とも,例えば,当該企業や研究組織の前年度における全世界の総売上高を上限とする行政上の制裁金制度を早急に導入すべきだと考える。
そのような制裁金による国庫収入は,零細であるために訴訟を起こすこともできないクリエータに分配すればよい。

***

基本は簡単だ。

人間がやってはいけないことは,AIシステムが自動実行することも許されない。

***

学習することそれ自体は,一般的には,各人の自由かもしれない。

しかし,企業秘密のようなアクセスが禁止されている知的財産権にアクセスすることは禁止なのでそもそもそれを学習することが許されない。

また,人間による学習の場合,脳内の記憶能力に限界があるので,著作権侵害の程度・範囲にも自ずと制限が称する。ところが,理論上では無限に記憶領域を拡大できるコンピュータシステムでは,たった1人のAI企業の経営者によって世界中の著作物がシステム内に格納され,潜在的に著作権侵害の状態でスタンバイするという状態が発生する。

つまり,AIによる知的財産権の侵害による潜在的な影響度は,個々の人間による場合とは全く比較にならないほど大きなものであり,いわば全人類を死滅させる文化的な生物化学兵器のようなものだと言える。

立法者は,そのことを正確かつ冷静に理解し,この問題に対応するため,適切に立法すべきだ。

 

| | コメント (0)

2025年10月 5日 (日曜日)

法と情報雑誌69号(第1分冊)

法と情報雑誌69号(第1分冊)を作成し,Web上で公表した。

 法と情報雑誌69号(第1分冊)
 http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No69A.pdf

この号には「規則(EU) 2023/2854(データ法) [参考訳] 」が含まれている。

| | コメント (0)

2025年9月11日 (木曜日)

AIエージェントの違法なふるまい

AIエージェントが実際にはどのような処理をしているのかの詳細を知ることは不可能または困難なことだ。

AIエージェントのふるまいの適法性の検証も難しい。特に利益相反の有無の検証は,関連する利害関係者の利益の詳細に関する情報を得ることがほぼ不可能と考えられるので,検証しようがない。著作権侵害の場合に関しては,一定の範囲内で自動処理を組込むことが可能かもしれないが,そもそもAIシステムの圧倒的大部分において著作物であるコンテントの処理に関し,正確な権利者情報や出典情報,裁判管轄地情報等のメタデータが存在しないので,著作権侵害がないことの検証の自動処理も頓挫する可能性が高い。

それでいて,利用者のエージェントである以上,そのAIエージェントに何か違法なふるまいがあり,誰かに対して損害を発生させた場合,そのAIエージェントサービスの利用者が行為者となり,不法行為法上の法的責任を負うことになる。

他方,日本国の製造物責任立法は信じがたいほど時代遅れのものなので全く話にならないが,例えば,EUの法令では動産だけではなくアプリケーションソフトウェアの提供のようなサービスの場合にも製造物に関する証明責任の軽減を定める法令がある。
それゆえ,日本国のAIエージェントのベンダは,EU域内でサービスを提供する場合,EUの法令が適用される。日本国の製造物責任に関する知識だけでは完全に無力だ。

このようなことは,例えば,「適法に行為する」という当たり前のことを全然知らない企業経営者がAIシステムを開発したり導入したりすると,当然の結果として発生する。
そのような場合おいては,もともと経営者として不適格なのに経営者になっているので,何が起きても自業自得としか言いようがない。

 

| | コメント (0)

2025年8月28日 (木曜日)

生成AIの生成物は独自の著作物となるか?

生成AIのアウトプットそのものではなく生成AIの補助を得つつも(例,背景部分のベタ塗り処理の自動化のようなあくまでも付随的な部分の自動処理),基本的には人間の脳と手により新たに生み出された作品である限り,その作品が著作権法の定める著作物である得ることに関しては,異論がないと思われる。

生成AIのアウトプットそれ自体の著作物性に関しては議論があるが,(私の「処理主義」の理論に依拠することなく,通説である「意思主義」の理論に立脚する限り)人間の創作物とは言えない純粋に自動性に生成されたアウトプットや人間の指揮命令と無関係に生成されたアプトプットは,自然現象の一種であり,人間が創作した作品ではあり得ないので,「創作物」ではあり得ず,従って,著作権法によって保護される「著作物」または「実演」等にはなり得ない。

そのようなアウトプットが既存のどのデータとも異なる新規のものである場合,模倣でも二次利用でもないことになる。
しかし,そのようなアウトプットは,自然現象の一種である以上,現行民法上では無主物の一種ということになり,それゆえ,無主物先占の理論によってものごとを解決することになる。
そのように解する場合でも,単なるデータとしてのアウトイプットを保護する法令が存在すれば権利が原始的に発生するというだけのことであり,そのような法令が存在しないときは,誰の権利にも服さない「単なるデータ」ということになる。

生成AIのアウトプットがコラージュの範疇に属するものである場合,(米国ではともかくとして)日本国の国家主権が及ぶ範囲内においては,マッドアマノ氏の作品をめぐるモンタージュ写真事件の最高裁判例は現時点でも有効なので,新たな著作物として成立することはなく,他人の著作物の改変または模倣に過ぎないということで既に確定しているので,このようなタイプの問題に関しては議論の実益が乏しい。

生成AIのアウトプット著作権法の定める二次利用による派生物(編集物,翻案物,翻訳物等)である場合,現行の著作権法の関連条項に従っている場合に限り,当該条項が定める法律効果の範囲内で,新たな著作物として保護を受け得る。
著作権法の定める法律要件を満たさない場合,著作物のない単なるデータに過ぎない。

例外は,営業秘密として保護されることがあり得る場合のみと考えられるが,営業秘密は不正競争防止法上の権利であり,著作権法の定める権利の一種ではない。

生成AIのアウトプットが著作権法上の引用に該当するためには,著作権法に定める引用のための法律要件をすべて満たしている必要があるが,現実にはそうではない。
ほぼ全てのGPTアプリやGPTサービスからのアウトプットは,正当な引用とは認められず,違法である。このことは,既に何度も主張しているとおり。加えて,著作権法の定める人格権の保護も考慮しなければならない。
その観点からは,例えば,Google検索の「要約」なるものは,ほぼ常に,引用の要件を満たさず,かつ,著作者人格権を侵害する違法なアウトプットであるので,全て削除されるべきであり,要件を満たさない仕様である限り,サービスの提供それ自体を全部廃止すべきである。
適法であるためには,その資料を学習し,模倣または引用したのかを,出典を明記すべきである。
LLMによる学習対象となる既存のデータが1つしかないときは,その単一の資料を無権限で模倣・改変して自動生成された生成物を公衆送信可能化していることになるので,適法行為になることがない。絵画作品等では現実にそのようなことが起こり得る。写真の創作物性に関しては,通説によれば(←私見は通説に反対),自然物である山河を撮影したような写真であっても構図のとり方に創作性があれば著作物であると解している。そうすると,構図のとり方を学ぶだけで違法行為であることになるが,そのような考え方は,アイデアそれ自体を保護するのと同じことになるので認められない。構図のとり方ではなく,当該写真を描画作品として印画紙上またはデジタル媒体上に固定化したことに創作性の淵源を見出すべきである。

まとめると,著作権法の定める法律要件を充足しないアウトプット,基本的には,全て違法な模倣物または改変物である。

有料のサービスにおいて,法理論的には著作権がないアウトプットを著作権のあるものとして課金する行為は,詐欺行為となる。
それが故意ではなく過失による場合であっても,刑事上で詐欺罪として処罰されることはないにしても,民事上は不法行為に基づく損害賠償請求の原因となり得る。
世界中の全ての事業者は,間違って詐欺行為となってしまわないように,善良なる管理者の注意義務をもって事業を遂行しなければならない。

***

なお,日本国の著作権法は,立法それ自体が完全に間違っており,基本的な国際条約における「works」を「著作物」としていることが人々の頭脳を劣化させている。「works」は,全て「作品」と置き換える法改正が必要なのだが,あまりに多数の箇所の改正が必要となるので,いったん廃止し,全部書き換える法改正を実施すべきだ。

このことは,これまでも何度も主張してきたことなのが,日本国の何人かの学者(法学研究者)等は私見に反対。英語を読み理解する能力がないせいではないかと推測される。法学研究者ではない学者に関しては,著作権法に関して無知なので,議論してもはじまらないと理解し,全て無視している。

 

| | コメント (0)

より以前の記事一覧