AI開発に必然的に伴う著作権侵害への対処は可能か?
下記の記事が出ている。
AI Training and Copyright Infringement: Solutions from Asia
Tech Policy Press: October 30, 2024
https://www.techpolicy.press/ai-training-and-copyright-infringement-solutions-from-asia/
下記の記事が出ている。
AI Training and Copyright Infringement: Solutions from Asia
Tech Policy Press: October 30, 2024
https://www.techpolicy.press/ai-training-and-copyright-infringement-solutions-from-asia/
下記の記事が出ている。
Mozilla: ChatGPT Can Be Manipulated Using Hex Code
DARK Reading: October 29, 2024
https://www.darkreading.com/application-security/chatgpt-manipulated-hex-code
***
「木を見ることしかできず,森を見ることができない」者は,細分化された機械的な仕事(単純労働)の担当は可能かもしれないが,経営者としては明らかに失格だと言える。その程度の能力の人物なので・・・
下記の記事が出ている。
OpenAIの文字起こしAI「Whisper」が幻覚を起こし文章を捏造すると研究者が指摘
GIGAZINE: 2024年10月27日
https://gigazine.net/news/20241027-openai-whisper-hallucination/
***
一般に,口頭の会話による場合でも書面による情報伝達の場合でも,そもそも完全な文というものが滅多に存在しないので,情報の受け手は(自分の主観に従って)空隙の部分または欠陥のある部分を任意に別の語や文で置き換えながら情報内容を解釈している。
つまり,これを定式として一般化すると,最も厳格な意味では,「会話は常に成立しない」。互いに空想し合っている状態しか存在しない。
私は,このことに関して,サンテグジュペリの『星の王子さま』の最初の部分(小さな複数の星を移動してその星の住人と会話しようとするくだり)を引用しながら大学の講義で説明してきたし,このブログ上でも何回か書いたことがある。
理論的にはそうなのだが,それぞれの主観(脳内)では「会話が存在している」と仮定して情報処理が実行されているので,そのような主観的な意味での仮定的な情報操作を迅速に実行できる人は「頭が良い」と評価されることが多いし,その逆もまたしかり。
これは,生体における言語処理では不可避のことであり,当たり前のことであり,特に奇異なことではない。
このことを踏まえると,上記の記事の中で指摘されている「幻覚」は,人間の脳内で日々実行されている仮定や推定と同じ特徴(恣意性,非信頼性,架空性など)をもつものだということを理解することができる。
要するに,会話や文の内容の理解という文脈において,「完璧な解釈」が成立することはあり得ないことであるし,そうである以上,「Whisper」が標榜するような機能は,どのような条件下においても常に欺瞞的なものであらざるを得ないという結論になる。
以上のようなことを十分に理解している専門家が補助手段として利用することには一定の有用性があるかもしれないが,一派向けの製品またはサービスとして提供された場合,かなり大きな消費者被害が恒常的に多発することを避けることができない。
それゆえ,現実にそのような大規模な消費者被害や社会的混乱等が生じるようになる前に,市場監視または消費者保護関係の官庁の担当者には,『星の王子さま』を読み,よく考えることによって,ものごとの本質を事前に理解しておくことを強くお勧めする。
なお,そのような社会的混乱は,特定の国家によって,軍事的謀略の一部として意図的に発生させられることがあり得る。
下記の記事が出ている。
Expert witness used Copilot to make up fake damages, irking judge
ars technica: 2024年10月15日
https://arstechnica.com/tech-policy/2024/10/judge-confronts-expert-witness-who-used-copilot-to-fake-expertise/
***
あくまでも一般論だが,AIが全ての知識を学習したと仮定した場合において,その知識全てが誤りであるときは,そのAIは同じ誤りを拡大再生産し続けるだけであり,少しも真理に近づかない。
(学術上の通説を含め)従来の常識が根底から全部間違っており,全部破棄してしまわなければならないということを多くの人々が理解できるようになるためには,それ相応の時間がかかる。
もともと真理とはそのようなものなのだが,そのことを理解し,即座に頭脳を切り替えることができるだけの脳機能をもつ人間の発生確率はそう高いものではない。
私は,大学の講義の中では,ガリレオ・ガリレイを例に出してこのことを説明している。
ちなみに,AIの関係に限らず,そもそも,真理というものは,それを知っている者以外の誰にも悟られないようにそれを知っている者の脳内だけに格納された状態になっているのが普通であり(←そうしないと圧倒的多数の暗愚な人々によって殺されるリスクがある。),一般的には周知されることがない。
法と情報雑誌59号(第3分冊)を作成し,Web上で公表した。
法と情報雑誌59号(第3分冊)
http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No59C.pdf
この号には欧州評議会人工知能枠組み条約(CETS No. 225)[参考訳] が含まれている。
[追記:2024年10月18日1:45]
誤りが発見されたので,修正版と置き換えた。
[追記:2024年10月18日9:15]
誤りが発見されたので,修正版と置き換えた。
[追記:2024年10月31日6:40]
誤りが発見されたので,修正版と置き換えた。
[追記:2024年11月1日3:50]
誤りが発見されたので,修正版と置き換えた。
下記の記事が出ている。
DoNotPay has to pay $193K for falsely touting untested AI lawyer, FTC says
ars technica: September, 26, 2024
https://arstechnica.com/tech-policy/2024/09/startup-behind-worlds-first-robot-lawyer-to-pay-193k-for-false-ads-ftc-says/
生命保険会社等からの個人情報の漏洩事件が続いており,政府も憂慮している。
影響は大きい。
生命保険会社は,業務遂行のために不可欠とは言えない大量の個人情報をもっている。ありとあらゆる悪用が考えられる。考えられないとすれば,経営者としては無能または怠慢であるか,それとも,経営者自身が悪用する目的で不必要な個人情報を収集している場合もあり得るのではないかと疑われる。
具体的には,例えば,保険会社は,保険契約者本人の情報だけではなく,保険契約者の同居の家族の有無などの関連情報も収集し,データベースに入れている。そのような個人情報も漏れたのだろう。
当然のことながら,海外のマフィアや国内の犯罪集団や特殊な組織等は,そのようなタイプの情報を欲しがる。
高齢の老人の一人暮らしであり,同居の家族がいないということを個人データだけで調べられるのだとすれば,現地に行って監視カメラに撮影されるリスクをおかさなくても下見をしているのと同じことになる。
そのようにして事前に絞っておいた高齢者一人暮らしの世帯を狙えば,犯罪組織による殺人,詐欺,恐喝,強盗等の犯罪行為の成功率は著しく高まる。
可及的速やかに警察当局の対応の応力を高めるのでなければ,そのような事態の発生があり得ることを明確に予測し,適切に対処することは難しい。
本来,このような問題の解決策は簡単なことだ。
それは,保険会社が管理しており,保険契約を維持管理するために必要ではない個人データは,国からの命令により全て破棄させることだ。
契約の維持管理のために不可欠ではないのに集めた個人データを使用してつくられたAIシステム等も全て破壊されなければならない。そのようなAIシステムは,犯罪集団を喜ばせるだけだ。
実は,そのようなAIシステムは,保険会社の業績向上に資することがほとんどない。いわば負の資産の一種だと言える。
しかしながら,残念なことではあるが,このようなタイプの問題に関し,現在の個人情報保護委員会に対して期待できることはあまりない。
EUのAI法の中には警察関係の適用除外条項が多数あり,その中には生体要素を用いた識別等と関係する条項も含まれている。
一般に,AIというと機械装置やソフトウェアと関連するものとしてのみ理解されることが少なくないが,生物のような有機体を包摂するサイバネティクスの中で理解しようとしないと全体像の把握を誤る。EUのAI法は,自覚的な認識の有無は不明とはいえ,客観的にはサイバネティクス法の形成の最初の段階に位置する法令のように見える。
それはさておき,EU及びその構成国(Member States)における警察活動の中でAIが実際にはどのように利用されることになるのか,そのような利用に伴う弊害を防止するための安全確保(safeguards)は何なのか,AI法に定める警察関連条項が実際にはどのように実装・運用されることになるのかについては,これまで詳細な資料が公開されていなかった。
先月下旬のことになるが,Europolが『AI and policing』を公表した。非常に参考になる。
AI and policing - The benefits and challenges of artificial intelligence for law enforcement
https://www.europol.europa.eu/publication-events/main-reports/ai-and-policing
この文書と関係する論説等が出ていないか調べていたところ,丸山満彦氏のブログにその紹介記事が出ていた。いつもながらに,速い!
欧州 EUROPOL AIと警察業務 - 法執行機関における人工知能の利点と課題
まるちゃんの情報セキュリティ気まぐれ日記:2024.09.24
http://maruyama-mitsuhiko.cocolog-nifty.com/security/2024/09/post-2b0e85.html
法と情報雑誌59号(第2分冊)を作成し,Web上で公表した。
法と情報雑誌59号(第2分冊)
http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No59B.pdf
この号には「規則(EU) 2024/1689(人工知能法)[別紙の参考訳]」が含まれている。
法と情報雑誌59号(第1分冊)を作成し,Web上で公表した。
法と情報雑誌59号(第1分冊)
http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No59A.pdf
この号には「規則(EU) 2024/1689(人工知能法)[条文(第64条~第113条)の参考訳]」が含まれている。
[追記:2024年10月5日14:20]
誤りが発見されたので,修正版と置き換えた。
[追記:2024年10月5日23:53]
誤りが発見されたので,修正版と置き換えた。
[追記:2024年10月6日9:18]
誤りが発見されたので,修正版と置き換えた。
最近のコメント