AI Chatbotがどの利用者との間の対話内容をAI機能の向上のために利用しているという問題に関するワシントンポストの比較検討的な記事
下記の記事が出ている。
How to opt out of having your data ‘train’ ChatGPT and other AI chatbots
Washington Post: May 31, 2024
https://www.washingtonpost.com/technology/2024/05/31/opt-out-ai-training-meta-chatgpt/
***
そのような仕組みになっているということを知らない利用者や,オプトアウトがほとんど機能していないかもしれないというリスク(=最悪の場合,機能に関する説明が最初から嘘かもしれないというリスク)を脳裏に浮かべることのできない利用者は,それに気づかないまま,例えば,自分が所属する機関・組織の機密情報や企業の知的財産(営業秘密,非公開の特許秘密など)を提供してしまっているかもしれない。
それゆえ,この問題は,個人データ保護やプライバシー保護と関連する問題だけではなく,国家機密の保護や企業秘密の保護の問題も含むかなり大きなリスクの問題だと理解すべきだと思う。
(OEMやアウトソースの場合を含め)Chatbotの機能を提供する企業は,自己の「営利」のために存在しているのであり,「慈善」のために存在しているわけではないので,基本的には,「自己の利益獲得のためには何でもやる」という当たり前のことを理解する必要がある。
***
比喩的に表現すれば,古代の支配者のための「王の目」や「王の耳」のようなものであり得る。
一般に,政治的支配者と同様の現実の力をもつ資本上の支配者(=インターネット上の超巨大プラットフォーマーなど)は,やはり支配者の一種だと言える。
この点において,世界規模で利用されるChatbotの運営企業と各国の議会・議員との間には(実質的な支配力の基礎となる情報収集力において)明らかに,決して乗り越えることのできない非対称性に直面していると言える。
Chatbotの運営企業は,全ての利用者の質問とそれに対する回答のデータを持っている。各国の議会・議員は,Chatbotの運営企業に対して全てのデータを常時提供させる権限をもたない限り何も知らない。
それと同時に,世界規模で利用されるChatbotは,(政治的な事柄に関しても,経済取引に関しても,組織運営に関しても)非常に頻繁に利益相反状態に置かれ得る。
しかし,生成AIシステムには知性も理性も倫理観もないので,人間であれば利益相反が発生するかもしれないというリスクを知覚したときにはそのような事態の発生を避けるための反対動機を生成できるけれども,生成AIシステムがそのような反対動機を自動生成し,一定のリスクのある処理を自動的に停止することはない。
あくまでもブラックジョークとして,選挙候補Aが既に質問した内容と同じ質問をライバル候補Bが同じChatbotに質問した場合,そのChatbotは,「あなたの敵であるAが既に質問したことと同じ内容なので,利益相反を避けるため,答えません」と回答するのが倫理的なのだろうか,「あなたの敵であるAが既に質問したことと同じ内容なので,Aに対してはAが優位と回答しましたが,あなたに対してはBが優位と回答します。私を信用してはなりません」と回答するのが倫理的なのだろうか,(その理由を告げることなく)黙ってしまうのが倫理的なのだろうか,それとも,「近い将来においてライバルである者から同じ内容の質問があるかもしれない」という状況判断的な近未来予測に基づき,どちらから質問を受けても「このようなタイプの質問には回答できません」と回答するのが倫理的なのだろうか・・・?
[追記:2024年6月4日]
関連記事を追加する。
Flawed AI Tools Create Worries for Private LLMs, Chatbots
DARK Reading: May 31, 2024
https://www.darkreading.com/application-security/flawed-ai-tools-create-worries-for-private-llms-chatbots
| 固定リンク
コメント