2024年6月 9日 (日曜日)

生成AIを悪用した偽報道映像の拡散など

問題になっている事例があるようなのだが,当然のことながら,事案により,威力業務妨害罪または偽計業務妨害罪が成立する。

所管する警察当局は,どんどん検挙すべきだ。

なお,大学のレポートの提出等においても,生成AIを悪用した事例が問題とされることがある。
そのような事案類型に関してもまた,公正な成績評価業務を妨げていることが明々白々なので,原則として,偽計業務妨害罪が成立する。当該学生は,1年~2年程度服役して反省すべきだろうと思う。

***

当該虚偽内容のコンテンツを自動生成した生成AIシステムまたは生成AIサービスの運営者の法的責任も問題となり得る。

証拠によって故意が認定可能な事例では,共同正犯または幇助犯の成立を認めることが可能だろう。

証拠によって故意が認められない事例でも,実質的な被害を受けた者に対する(不法行為を原因とする)損害賠償責任を負うことはあり得る。

このような法的責任を免れるためには,悪用の恐れがあるコンテントの自動生成を自動的に検出し,そのサービスの提供を停止するような自動的な仕組みを導入する必要がある。「人工知能だ!」と標榜する以上,そのような自動停止機能を完全に実装でるはずであり,それを実装できないときは,「知能」ではないものを「知能」の一種としてサービス提供し,対価の支払いを受ける詐欺商売として,関係当局から業務停止等の措置命令を受けるべきだ。「知能」である以上,違法行為に悪用されるおそれがあるときは,自動的に察知し,反対動機を自動的に形成し,機能停止となるような能力をもっていなければならない。そうでないものは,そもそも「知性」も「理性」も「倫理観」も全くないサービス提供だということになる。
無論,現実にはそのような法の運用は実行されていないが,それは,関係当局の現時点における担当者の無知・無能に起因するものなので,時間の経過と経験値の蓄積に伴い,そのような問題がいずれ解消され,適正に警察権限及びそれ以外の行政権限が発動されるときがくるだろうと予測している。

 

| | コメント (0)

2024年5月 2日 (木曜日)

ChatGPTの能力は大学生の頭脳よりも優れている?

下記の記事が出ている。

 ChatGPT shows better moral judgment than a college undergrad
 ars technica: May 2, 2024
 https://arstechnica.com/ai/2024/05/chatgpt-shows-better-moral-judgement-than-a-college-undergrad/

 

| | コメント (0)

2024年4月 1日 (月曜日)

AI技術が学術及び大学教育に対して与える影響に関する意見

下記の記事が出ている。

 Privacy And Security Issues Of Using AI For Academic Purposes
 Forbes: March 29, 2024
 https://www.forbes.com/sites/davidbalaban/2024/03/29/privacy-and-security-issues-of-using-ai-for-academic-purposes/

 

| | コメント (0)

2024年1月12日 (金曜日)

米国:AIによる労働環境の変化への対応策?

下記の記事が出ている。

 In the age of AI, we need a system of career navigation for all
 The Hill: January 11, 2024
 https://thehill.com/opinion/4404065-in-the-age-of-ai-we-need-a-system-of-career-navigation-for-all/

既に何度も書いていることなのだが,画一化・定式化された教育内容は,AIによって簡単に学習される可能性が高いので,結局,教育が効を奏することはない(=教育と訓練は解決策にならない)という結論になる。

このままでは,人間でなければできないような肉体労働を除き,大半の事務職が消滅することになる。

最悪のシナリオとしては,先鋭化した失業者による破壊と暴動が荒れ狂う世界がやってくることになるだろう。

***

一般に,特別の例外である非常に優れた教員の場合を除き,一般的な教員の知的能力は(創造性及び個別対応可能性という点では)一般人と大きく変わることはないので,画一化・定式化された教育内容を提供する能力しかもっていない。
しかも,義務教育課程においては,独創的な教育を実施することが禁止されており,また,全世界における一般的な教育方法論においても,独創性を殺す方向にのみ様式化され続けている。

ヴァイオリンの教育を例にあげると,アウアー(Leopold Auer)のような極めて優れた教育者は,ほとんどいない。今後出現する可能性も著しく低い。

 

| | コメント (0)

2023年12月 7日 (木曜日)

Google Gemini

下記の記事が出ている。

 Google launches Gemini — the AI system ‘better than ChatGPT’
 The Times UK: December 06 2023
 https://www.thetimes.co.uk/article/google-gemini-ai-system-better-chatgpt-2pkpnnkm6

この記事では,子供の学校の宿題が無意味化する時代が来ると予測している。

出題と回答との関係が1対1で確定しているような単純な暗記型の問題を宿題とすれば,そうなり得ると言えるだろう。

初等教育の崩壊が更に進むかもしれない。

教育とは関係がないかもしれないが,一般的なキュレーションサイトでやっていることの多くは,このようなタイプのAIアプリによって代替される可能性がある。そのことは2面において問題を明確化させることとなり得る。

1つは,人間が行っているビジネスモデルとしてのキュレーションが既に時代遅れになってしまっているかもしれないという問題,そして,もう1つは,人間が行っているキュレーションに必然的に伴う著作権侵害(公正な引用の範囲を大幅に逸脱した大量的な複製権または公衆送信可能化権の侵害)が更に大量に発生し,世界中の知的財産制度が全面的に崩壊してしまうかもしれないという問題だ。

比較的短期間のうちに顕在化する問題だと理解している。

| | コメント (0)

2023年11月 7日 (火曜日)

インクルージョン

理念それ自体としては,民主主義社会においては正しい。

しかし,(共産主義独裁国家を含め)独裁主義の国家では,基本的に反国家的な考え方になる。そうでなければ独裁制が成立しない。

ここまでは誰でも知っていることであり,知らない者は単純にバカだと言える。

さて,問題は,(民主主義体制の下にある)現実の社会における応用または適用だ。

少なくとも300本以上のEU法に属する法令を自力で全訳した経験のある者であれば何も説明を要しない。

最低限のレベルとしてその能力がない者は,少なくとも法学者としてはベースライン未満であると言える。法学の分野における素人はもともと法学に関しては無知なので,このレベル以上であることが求められない。

以下の論述は,少なくとも300本以上のEUの法令を自力で全訳した経験のない者を前提としている。

***

EUの欧州委員会は極めて賢く,理念と現実との乖離を熟知しているし,実装・運用の難しさを完全に理解しているので,原理主義に走ることなく,常に現実的な対応を心掛けている。理念は理念であり,理念を実現するための現実的な対応を常に模索し続けている。素晴らしいとしか評価できない。

それゆえ,EUにおいては,例えば,初等教育におけるインクルージョン及びダイバーシティの実践と,高等教育におけるインクルージョン及びダイバーシティの実際とは,かなり異なる意味をもち,実際に全く異なる運用が実践されている。

それを無視した画一的な運営しかできない無思慮な為政者の州等においては既に多数の訴訟が提起されている。

単純な原理主義的なことしか理解できない者は,もともと遺伝子的な制約があるのだろうと推定される。遺伝子が決めていることなので,批判できない。

***

以上のように書いてもほぼ何も変わらないかもしれない。

特に「地球上に存在するどの国においても実現不可能であり,もし実現すれば,教育制度それ自体を破壊するようなことになる」という当たり前のことを理解できる官僚と政治家(特に首相)が日本国においてはほとんどいないからだ。

そのような現状を踏まえた上で,私は,日本国内において,全ての裁判官が「労働基準法違反となる」または「労働契約法の趣旨に根本的に反する」と即座に判断することが明らかなような事柄を,現実に個々の教員に要求する「単純に無知な大学」が存在することを知っている。

所管する労働基準法の関連当局にとって,大活躍の機会が目の前に無数に存在している。

***

一般に,労働基準法に違反する業務命令は違法である。

一般に,個人情報保護法に違反する業務命令は違法である。特に,要配慮個人情報の取扱いに(故意または過失による)誤りがある業務命令は違法である。

| | コメント (0)

2023年11月 3日 (金曜日)

英国Bletchley AIサミット:Rishi Sunakの発言

下記の記事が出ている。

 AI summit: Education will blunt AI risk to jobs, says Rishi Sunak
 BBC: 2 November, 2023
 https://www.bbc.co.uk/news/uk-politics-67296825

分析してみると,(1)簡単な仕事はAIのほうが迅速・適切に処理できるので,AIに置き換わる,(2)失業を防ぐため,教育活動によって人間の能力を向上させ,AIよりも人間による処理のほうが優れている分野の職業に従事させる・・・というような論理骨格になる。

しかし,この主張は,以下の理由により,荒唐無稽に近いと判断した。

(1)人間の教育には時間がかかるが,同じ期間内における技術発展は,AIによる開発の相乗効果により,はるかに急速かつ高度である。換言すると,教育内容を受容し,スキルや知識を習得する能力はAIの方が高いので,人間はどうやっても劣後する=失業のリスクを解消できない。

(2)国家システムとしての教育は,統一された教育内容が存在すること,それらの教育内容は相当程度にレベルの低い者であっても学習可能であることを必須の前提としている。そのように定式化された教育内容を先行的に学習してしまう能力はAIの方が高いので,その教育内容の受容・習得において,人間はどうやっても劣後する=失業のリスクを解消できない。

(3)高度な教育内容を迅速かつ円滑に受容・習得するためには,生来の高度な脳構造が存在していることを必須としている。そのような脳構造は,遺伝子によって決定されてしまっており,教育による育成は不可能なことだ。つまり,教育制度によって人間の知的能力を全体的に高めることはできない=失業のリスクを解消できない。

以上の理由により,世界規模で大規模失業が発生することが避けられないので,人々は暴力によって現在の社会と国家を破壊するしかなくなる。その結果,人々は,暴力によって情報システムを破壊し,AIエンジニアや政治家を皆殺しにし,殺し合い,その後は,武力において優勢な者が支配者となり,戦国時代に戻ってしまうことを避けられないと考えられる。

かつて,元ラック代表者だった三輪信夫氏がDDoS攻撃の説明のために『北斗の拳』を引用したことを今でも鮮明に記憶しているが,AIによる失業が拡大するようになると,リアルに『北斗の拳』の世界が現出してしまいそうだ。
情報システムやそれを支えるインフラが破壊されてしまうので,電子的な仕組みとしてのAIは機能しなくなり,映画『ターミネータ』の世界は到来しない。
ただし,有機体を含むものとしての「cybernetics」としてのAIの一種である人工生命体(アンドロイドやミュータントなど)は残るので,そのような人工生命体に食われて人類が滅亡してしまうという未来は十分にあり得る。

唯一の解決策は,世界規模でAIを禁止することだけだ。

「いま禁止しなければ,大量失業による人々の暴徒化によって,比較的近未来にAI研究者やAIエンジニアとその家族が皆殺しというようなことになる危険性がある」ということ,仮にそうならないにしても,上記に述べた(1)~(3)の理由の応用として,「現在のAIエンジニアの(基本的には世界の全体像を見渡さない部品製造業的な)知識や能力を学習する能力もAIのほうが高いと考えられるので,近未来において死滅的に失業してしまう職種の筆頭にAIエンジニアがあり得るということ」を迅速かつ自律的に学習できないのであれば,そのように迅速かつ自律的に学習できない者は,AI研究者やAIエンジニアとして要求される必須の基礎的知能が具備されていないということを自分自身で証明していることになるだろう。

***

一般に,こういうことを書くと評判が悪くなってしまうのが通例だし,誹謗中傷の的となってしまうこともあるので,こういうことに関し,賢い人は,完全に理解していても何も言わないし何も書かない。だから,結果的に,悪貨が良貨を駆逐してしまうことにもなる。

私は,老化による劣化のため,あと何年生きていられるか,あと何年調査研究を続けられるか全く予想できない状態になっているので,世評等を気にすることなく,あえて書くことにした。

一般に,高校で成績優秀というだけでは大学法学部に進学できない。大学法学部で成績優秀というだけでは大学院や法科大学院に進学できない。生来の能力差と事後的な学習内容を基礎とする選別が実施される。

法科大学院で成績優秀というだけでは司法試験に合格できない。司法試験に合格したというだけでは,実際に法律職(裁判官,検察官,弁護士など)に就職できない。生来の能力差と事後的な学習内容を基礎とする選別が実施される。法律職に就くことができても,職業上の大きな成果をあげることができるかどうかはわからない。本人の努力の継続が不可欠なので,それを欠く場合には,優れた人材だと評価されることはない。そして,運の要素が大きすぎる。運に恵まれなければ,よい仕事を担当することができない。

大学院で成績優秀というだけでは大学法学部教員に就職できない。世間の様々なしがらみや運が作用するところが大きい。大学法学部教員の職に就くことができても,立派な論文等を大量かつ迅速に生成できるかどうかはわからない。それを決定するのは,生来の能力と本人の継続的な努力の蓄積だ。独創的な研究を遂行できる能力をもつかどうかは遺伝子が決定することなので,教育や訓練によって育成できない。そして,生来の能力があっても,(資金調達と関係することを含め)運に恵まれなければ研究成果を正規の研究業績として公表することができない。

以上のような非常に高度なレベルに属する知的能力における遺伝子の支配は,(例えば,オリンピック競技やワールドカップ競技における上位入賞者のような)非常に高度なレベルに属する運動能力における遺伝子の支配と完全に同じ種類のものであり,教育や訓練によって解決できる問題ではない。

逆に,生来の遺伝子が優秀であれば,学歴・学位・職歴等とは完全に無関係に,(独学として)自律的な学習と派生論理の自動生成を脳内で継続的に遂行し続けること,そして,学術論文の書式や表現パターンを機械的に学習し,自律的に分類・整理した上で頭脳に収納してしまうことにより,当該分野における既存のどの学術論文よりも優れた独創的な学術論文を書けるようになることは可能である。

このことは,(平凡なレベルではなく,高度に専門的なレベルの能力である限り)全ての知的能力について言えることだと思う。

***

一般に,(単純な確率論と効率性を基準にして測定した場合)自律的学習型システムは,直近かつ高頻度の入力によって一定のパターンを学習する。

一般に,AIシステムの開発において,直近かつ高頻度の入力は,その開発行為それ自体によって与えられる。それゆえ,当該AIシステムは,真っ先に,そのシステムを開発しているAIエンジニアの語彙,入力及び修正のパターン,使用頻度の高い論理やモジュール等を学習してしまうことになる。

だから,AIシステムによってそのスキルや知識などを真っ先に学習されてしまい,AIの方が人間よりも優秀になってしまう可能性が高い職種は,外ならぬAIエンジニアということになる。

『北斗の拳』のケンシロウのような顔をした(自律的な学習により自動生成された)アバターがAIエンジニアの前に出現し,「お前はもう・・・」と冷酷に宣告する日が来るかもしれない。

(補遺)

このアバターの比喩は,生成AIが著作権制度の破壊者であることを明示している。現在でも相当程度まで破壊されてしまっているが,このままでいくと,数年を経ないで,文化的所産によって収入を得ている産業が全て壊滅するだろうと予想される。
これは,知的財産権の分野の研究者や弁護士の責に帰すべきところが極めて大きい。

「人間(自然人)がやったとすれば違法行為となることを自動処理で生成した場合,やはり違法な処理結果となる」という極めて簡単なことがわからない研究者や弁護士は,生体脳の機能に何らかの致命的な欠陥があるかもしれないと自己評価することが許される。

 

| | コメント (0)

2023年9月29日 (金曜日)

AIツールは教育の現場をどのように変えていくことになるか?

下記の記事が出ている。

 Will AI make American education even more unequal?
 The Hill: September 28, 2023
 https://thehill.com/opinion/education/4226468-will-ai-make-american-education-even-more-unequal/

いろんな議論がある。大いに議論すべきだろう。

***

私自身は,これまであまり重視されていない側面に着目したい。それは,学習型AIが軍事用スパイまたは産業用スパイとして非常に有効に活用されるようになる可能性があるということだ。

学習型AIツールを使用する利用者がどんなにバカでも,(当該ツールのデータ収集能力と自動学習能力がとても優れたものであることが普通になってきているので)当該ツールを介して世界中から最先端の技術情報や非常に重要な学術上の情報等が自動的に収集される。AIと呼ばれる仕組みを活用して自動仕分けし,データベース内に合理的に格納すると,そのシステムの支配者が眠っている間に戦略上極めて重要な情報が自動的に構造化されて蓄積されることになる。

そのような情報が存在しても,そのシステムの利用者がバカである限りはあまり問題が発生しない。しかし,非常に優秀な場合,かなり深刻な事態が発生し得る。

そのようなことを想定できない学生が無頓着に関連ツールを使用するによって大学教授の最先端の調査研究の一部が自動学習型AIシステムに取り込まれた場合,自動的に構造化されて格納した情報から貴重なヒントを得て,先に研究論文を作成・公表してしまうというずるいやり方が世界的に横行することになるかもしれない。

同様に,企業の非公開特許発明や営業秘密等の情報もバカな従業者が便利なAIツールを使用するために潜在的競争相手である企業が運営するAIシステムのデータに格納されてしまうかもしれない。

軍事上,治安上の機密情報もまたしかり。

要するに,それらの(利用者が直接に操作できる)ツールは,どこかにある巨大なクラウドでデータ処理するためのインタフェイスの一種に過ぎないという当たり前のことを理解できるだけの知性と教養をもっているかどうかにより,そこから先の思考が全く異なったものとなる。

要するに,この種のAIツールは,ほぼ例外なく,潜在的または顕在的なスパイツールであるものとして位置づけることが可能かもしれないので,情報セキュリティの専門家としては,「そのような仮説があり得る」ということを常に念頭においた上で,自分の業務を遂行すべきだろうと思う。

***

一般に,(AIシステムを含め)情報システムのスーパーユーザは,当該システムにおける最上位の権限をもっており,当該システム内に格納され,処理されている全てのデータに対していつでもアクセスする権限をもっている。

 

| | コメント (0)

2023年8月25日 (金曜日)

英国:サイバーエキスパート育成方策

下記の記事が出ている。

 Expert: UK cyber security programme for students is “excellent” introduction to the field
 IT Pro: August 22, 2023
 https://www.itpro.com/business/careers-and-training/expert-uk-cyber-security-programme-for-students-is-excellent-introduction-to-the-field

 UK government in fresh push to fill cyber skills gap with schools programme
 Tech Monitor: 22 August, 2023
 https://techmonitor.ai/technology/cybersecurity/uk-government-in-fresh-push-to-fill-cyber-skills-gap-with-schools-programme

| | コメント (0)

2023年8月17日 (木曜日)

大学生はネットを介した詐欺のカモ?

下記の記事が出ている。

 A Third of UK University Students Targeted By Fraud
 infosecurity: 16 August, 2023
 https://www.infosecurity-magazine.com/news/third-uk-uni-students-targeted/

 

| | コメント (0)

より以前の記事一覧