ChatGPTによる感想文の例
私は単なる自動的な著作権侵害機能の集合体に過ぎないと理解しているので,全世界的に禁止されるべきだと考えているが(=学習することが合法的に実行可能であっても,出典や原著者を明記しない出力は公正な利用にも公正な引用にも該当しない。無から有は生まれないので,必ず何らかの原典からの複製となる。そして,原著者の許諾のない文章の改作・合成等の処理は著者者人格権の侵害になる。),それはそれとして,下記のような記事が出ていた。
チャットGPT巡る学校向け指針、文科省が検討…「瞬時に作文」悪影響に懸念
読売新聞:2023年4月6日
https://www.yomiuri.co.jp/kyoiku/kyoiku/news/20230405-OYT1T50276/
懸念が生ずるのは当然のことなのだが,この記事の中で「感想文」の出力例として示されている「葛藤や苦悩を抱える人がいることを知り、相手を理解する大切さも学んだ」との文は,そもそも感想文ではない。「感」も「想」も含まれておらず,単に学習結果(認識・記憶内容)の一部を出力しているだけだ。
感想文は,「他者とは異なる自己であること」を明確かつ唯一無二的に識別可能な文を用い,ある対象に関する(他者とは異なる自己だけの)考察結果や情動の動きを示す文章,または,当該課題に関する唯一無二的な自己の主張とその根拠の合理的な論証を含む文章でなければならない。
そのような文章であるか否かを評価しなければならないので,「感想文」の評価・採点は,本当は,教員にとって最も難しい作業の1つに属する。
教員でありながらそのように認識していない者は,教員としては不適切なので,教員としての職を辞職すべきだろうと思う。
また,学生に対して「感想文」とはそのようなものだと教えることも非常に難しい作業の1つだ。大抵は全く理解しないまま卒業していく。
「感想文」としての諸要件を満たさない提出物を全部「0点」として採点することも可能なのだが,大幅に妥協しないと「ほぼ全員留年」という事態が発生しかねないので,常に悩む。
しかし,私が悩んでいても事態が改善されることはなく,ChatGPTの不適切利用が蔓延し続けるだろうし,それによって,そう遠くない将来,若者の白痴化がどんどん進行して人類社会が崩壊することになるのだろうから,既にあきらめている。
ちなみに,ChatGPTのような学習型AIに一定のバイアスをかけることは十分に可能だ。このバイアスをかけるための処理は,当該システムの開発時にも実行可能なのだが,学習型AIの特性として,一定の(隠された)傾向性のある情報やデータをどんどん学習させるという方法によって,後発的にバイアスをかけることも可能だ。人間であれば,「洗脳」に該当する行為のような処理を電子的に短時間で大量に実行するということになる。
軍事的にはそのようなバイアスをかけるための仕掛けを実行するサイバー攻撃が既に実施されていると考えられる。そうやって,ネット依存症的な若者を独裁者の支持者として洗脳してしまうことが可能となる。相手国に対しては,世論の分裂を発生させることも可能となる。また,学習型AIを使用してニュース記事等を作成している企業等において,(経営者が全く知らない間に)思想汚染してしまい,自動的に思想汚染された記事を当該企業の信頼性を背負った記事として配信することが可能となる。
私は,そのような実例を既に多数発見している。例えば,特定の国に対して批判的なサイトなはずなのに当該国に親和的な記事や自動翻訳物がどんどん掲載されているニュースサイトは存在する。翻訳記事作成のための自動翻訳も学習型AIを用いる時代となっているので,バイアスがかかるように洗脳してしまうことが可能なのだ。
一般に,自動翻訳では,中立性や客観性は全く保証されない。
結局,報道分野においても,常に戦時と平時が共存する状況にあることを理解しなければならない。
したがって,国としては,かなり重大な国防問題としてもこの問題をとらえる必要性がある。単なる教育現場の懸念のような問題だけでは済まされない。
| 固定リンク
コメント