2023年8月25日 (金曜日)

英国:サイバーエキスパート育成方策

下記の記事が出ている。

 Expert: UK cyber security programme for students is “excellent” introduction to the field
 IT Pro: August 22, 2023
 https://www.itpro.com/business/careers-and-training/expert-uk-cyber-security-programme-for-students-is-excellent-introduction-to-the-field

 UK government in fresh push to fill cyber skills gap with schools programme
 Tech Monitor: 22 August, 2023
 https://techmonitor.ai/technology/cybersecurity/uk-government-in-fresh-push-to-fill-cyber-skills-gap-with-schools-programme

| | コメント (0)

2023年8月17日 (木曜日)

大学生はネットを介した詐欺のカモ?

下記の記事が出ている。

 A Third of UK University Students Targeted By Fraud
 infosecurity: 16 August, 2023
 https://www.infosecurity-magazine.com/news/third-uk-uni-students-targeted/

 

| | コメント (0)

2023年7月 1日 (土曜日)

米国:大学のaffirmative action問題に関する判断

下記の記事が出ている。

 Five things to know about Supreme Court’s decision to curtail college affirmative action
 The Hill: June 29, 2023
 https://thehill.com/homenews/education/4073647-five-things-to-know-about-supreme-courts-decision-to-curtail-college-affirmative-action/

 The impending ripple effect of the Supreme Court’s affirmative action ban
 The Hill: June 30, 2023
 https://thehill.com/opinion/education/4076176-the-impending-ripple-effect-of-the-supreme-courts-affirmative-action-ban/

 

[追記:2023年7月9日]

関連記事を追加する。

 Attention turns to legacy admissions after affirmative action ruling
 The Hill: July 8, 2023
 https://thehill.com/homenews/education/4084026-attention-turns-to-legacy-admissions-after-affirmative-action-ruling/

 

 

| | コメント (0)

2023年6月 2日 (金曜日)

ギリシア:教育機関のシステムに対するサイバー攻撃?

下記の記事が出ている。

 Greece's Education Ministry Faces Unprecedented Cyber Attack Targeting High School Exam Platform
 Greek City Times: May 31, 2023
 https://greekcitytimes.com/2023/05/31/greeces-education-ministry-faces-unprecedented-cyber-attack-targeting-high-school-exam-platform/

| | コメント (0)

2023年5月14日 (日曜日)

Googleのtranslation glasses

下記の記事が出ている。

 Google's 'translation glasses' were actually at I/O 2023, and right in front of our eyes
 ZDNet:May 12, 2023
 https://www.zdnet.com/article/googles-translation-glasses-were-actually-at-io-2023-and-right-in-front-of-our-eyes/

今後類似品や高性能の回良品がどんどん開発され,地球規模で市場に投入されることになるだろう。脳内にインプラントするタイプの製品も開発されるかもしれない。

その結果,例えば,学校の期末試験や入学試験等において何をどのように問うべきかに関し,根本的な見直しが求められることになるだろうし,それを考えることのできない教員は閑職に配置転換となってもやむを得ない・・・というような状況になることが避けられないのではないかと思う。

目下,ChatGPTだけが議論の対象となっているが,同じ枠組みの中にあるものとして把握可能な問題点を含んでいる。
すなわち,一般に,人間の能力・機能の中で反復・継続(だけ)によって習得可能であり,かつ,主観的満足度が単純な統計計算によって表現可能なものに関しては,コンピュータ処理に置き換えることが可能であることが多い。
そのような処理を実行できる装置等が人間の能力を高める装置として販売されれば,自分の能力が高まるのではないかと錯覚して飛びつく消費者が無数に存在することだろう。
しかし,それらの装置を利用することとは,要するに,自己の脳機能の一部を(他者が支配・管理する)コンピュータシステムによる処理に置き換えること,または,そのような処理に依拠することを意味する。その結果,自己の脳内における思考と記憶の機会は,大幅に減衰する。

一般に,自分の脳細胞のシナプス結合に大きな変更がない限り,自分自身の知的能力が高まることはない。逆に,そのような装置やシステムに依存すると,脳機能が全体として著しく劣化する危険性が高い。

このことは,肉体的な運動機能や運動能力についても言えることで,便利な機械装置や道具に頼ってばかりいると,筋力や関節の機能が衰退し,最悪の場合,自力歩行が難しくなってしまうこともあり得る。

要するに,「楽してよくなること」は何もない。

加えて,翻訳文が正しいという保証は何もないのだが,誤訳や誘導による洗脳行為が実行されていても誰も気づかないというような事態が発生する危険性が大いに高まる。
ごく一部の識者が察知し,指摘しても,多勢に無勢なので,徒労に終わりそうだ。そのようなシステムを介した洗脳によって思考を支配された多勢の愚者集団によって現在の社会秩序が根底から破壊される危険性もある。

とはいえ,そのような機器類やサービスの提供に反対しても普及することだろうから,基本的には,家畜レベルに脳機能が劣化したヒト集団をいかに合理的かつ効率的に統治または飼育するかということが全ての政府の重要な検討課題となることだろう。

ただし,そのレベルの知的能力しかないヒト集団から税収を得ることは無理だということも理解しなければならない。

悲惨な未来というしかない。

 

| | コメント (0)

2023年4月21日 (金曜日)

サイバー戦=宇宙戦という構図

下記の記事が出ている。

 China building cyber weapons to hijack enemy satellites, says US leak
 Financial Times: April 21, 2023
 https://www.ft.com/content/881c941a-c46f-4a40-b8d8-9e5c8a6775ba

これまで何百回も強調してきたことだが,例えば学術会議の基本的な活動に見られるようなカテゴリの細分化の促進は,白痴を増やすだけで真に必要な人材を喪失する可能性を増大させる。カテゴリの細分化は,その細分化されたカテゴリの中でしか飯を食うことのできない相対的に能力の低い者の生活保護のためにあるので,それをどのように考えるかは,為政者の知能に依存している。

私が述べていることは,狭い分野に限定した能力しかもたない者を否定的にとらえるという意味ではない。例えば,昆虫,魚類,菌類,シダ植物等に関しては,その分野に精通するだけでも相当の天才的能力がないと不可能なことなので,それらの分野に精通している者の中には天才が存在する可能性が高い。

私が言いたいのは,二流以下の者でも一流であるかのように見せかけるための仕組みとして,非常に狭い限定したカテゴリを細分化してしまうことの弊害だ。
そして,真に必要な能力は,カテゴリの別とは全く関係のない複数のカテゴリを組み合わせた超専門性を維持することにあり,カテゴリを細分化して固定することは,その点において極めて大きな弊害がある。ここで大事なことは,「総合**学部」や「総合共同研究」のようなものを複数の者で分担するのでは(結局同じことになるので)意味がないということだ。どんなことでも全部やれる天才を探さなければならない。

それはそれとして,既に確定している「通説」のような学説を丸暗記する能力,丸暗記した通説を印刷機のように学生に伝授する能力は,大学受験予備校の講師の能力としては必須なものかもしれないが,大学教授としては,そのような言動は禁忌のことが多い。むしろ,既に疑問なく確定したとされる事象について,「本当か?」と疑問をもつのが真の学者だと言える。

単なる秀才は,パラダイムシフトを惹起することなどできない。

そのような疑問をもち,疑問を解消するためのそれまで誰も考えたことのない方法論を見出すことのできる能力をもつ者こそ真の学者だ。これは,ChatGPTにはない能力だと言える。

なぜなら,単なる学習では見出されものではないからだ。

単なる学習は,単純再生産のための手法の一つに過ぎない。

 

| | コメント (0)

2023年4月 6日 (木曜日)

ChatGPTによる感想文の例

私は単なる自動的な著作権侵害機能の集合体に過ぎないと理解しているので,全世界的に禁止されるべきだと考えているが(=学習することが合法的に実行可能であっても,出典や原著者を明記しない出力は公正な利用にも公正な引用にも該当しない。無から有は生まれないので,必ず何らかの原典からの複製となる。そして,原著者の許諾のない文章の改作・合成等の処理は著者者人格権の侵害になる。),それはそれとして,下記のような記事が出ていた。

 チャットGPT巡る学校向け指針、文科省が検討…「瞬時に作文」悪影響に懸念
 読売新聞:2023年4月6日
 https://www.yomiuri.co.jp/kyoiku/kyoiku/news/20230405-OYT1T50276/

懸念が生ずるのは当然のことなのだが,この記事の中で「感想文」の出力例として示されている「葛藤や苦悩を抱える人がいることを知り、相手を理解する大切さも学んだ」との文は,そもそも感想文ではない。「感」も「想」も含まれておらず,単に学習結果(認識・記憶内容)の一部を出力しているだけだ。

感想文は,「他者とは異なる自己であること」を明確かつ唯一無二的に識別可能な文を用い,ある対象に関する(他者とは異なる自己だけの)考察結果や情動の動きを示す文章,または,当該課題に関する唯一無二的な自己の主張とその根拠の合理的な論証を含む文章でなければならない。

そのような文章であるか否かを評価しなければならないので,「感想文」の評価・採点は,本当は,教員にとって最も難しい作業の1つに属する。
教員でありながらそのように認識していない者は,教員としては不適切なので,教員としての職を辞職すべきだろうと思う。

また,学生に対して「感想文」とはそのようなものだと教えることも非常に難しい作業の1つだ。大抵は全く理解しないまま卒業していく。

「感想文」としての諸要件を満たさない提出物を全部「0点」として採点することも可能なのだが,大幅に妥協しないと「ほぼ全員留年」という事態が発生しかねないので,常に悩む。

しかし,私が悩んでいても事態が改善されることはなく,ChatGPTの不適切利用が蔓延し続けるだろうし,それによって,そう遠くない将来,若者の白痴化がどんどん進行して人類社会が崩壊することになるのだろうから,既にあきらめている。

ちなみに,ChatGPTのような学習型AIに一定のバイアスをかけることは十分に可能だ。このバイアスをかけるための処理は,当該システムの開発時にも実行可能なのだが,学習型AIの特性として,一定の(隠された)傾向性のある情報やデータをどんどん学習させるという方法によって,後発的にバイアスをかけることも可能だ。人間であれば,「洗脳」に該当する行為のような処理を電子的に短時間で大量に実行するということになる。

軍事的にはそのようなバイアスをかけるための仕掛けを実行するサイバー攻撃が既に実施されていると考えられる。そうやって,ネット依存症的な若者を独裁者の支持者として洗脳してしまうことが可能となる。相手国に対しては,世論の分裂を発生させることも可能となる。また,学習型AIを使用してニュース記事等を作成している企業等において,(経営者が全く知らない間に)思想汚染してしまい,自動的に思想汚染された記事を当該企業の信頼性を背負った記事として配信することが可能となる。

私は,そのような実例を既に多数発見している。例えば,特定の国に対して批判的なサイトなはずなのに当該国に親和的な記事や自動翻訳物がどんどん掲載されているニュースサイトは存在する。翻訳記事作成のための自動翻訳も学習型AIを用いる時代となっているので,バイアスがかかるように洗脳してしまうことが可能なのだ。

一般に,自動翻訳では,中立性や客観性は全く保証されない。

結局,報道分野においても,常に戦時と平時が共存する状況にあることを理解しなければならない。

したがって,国としては,かなり重大な国防問題としてもこの問題をとらえる必要性がある。単なる教育現場の懸念のような問題だけでは済まされない。

 

| | コメント (0)

2023年2月22日 (水曜日)

ロシア:学徒動員?

下記の記事が出ている。

 Russia’s War Machine Tested by Rift Between Military, Wagner Group
 Wall Street Journal: February 21, 2023
 https://www.wsj.com/articles/russias-war-machine-tested-by-rift-between-military-wagner-group-7e83b016

 Russia orders mandatory military training for secondary school students
 Washington Times: January 29, 2023
 https://www.washingtontimes.com/news/2023/jan/29/russia-orders-mandatory-military-training-secondar/

 

 

 

| | コメント (0)

2023年2月19日 (日曜日)

AIはリテールを変化させる?

下記の記事が出ている。

 AI is Changing the Outlook of Retail
 February 17, 2023
 https://www.iotforall.com/ai-is-changing-the-outlook-of-retail

この記事で述べられている意見に賛成するかどうかは一応措くとして,AIと関連する技術が企業と消費者との関係を大きく変えつつあることは間違いないと思う。

問題は,日本国の消費者庁のような関連官庁が変化に対応できているかどうかよくわからないという点にある。

たぶん,支配層の中で「秀才」が優位な時代は終わった。形式的な論理学で終始する分野である限り,過去に存在する理論や定義を吸収して応用する能力はAIの方が優れている。人間の能力は相対的に非常に低いので,大抵の秀才はAI未満と評価され,捨てられることになる。

AIにはできないこと,それは,過去に存在しておらず,それゆえ学習しようのない理論を新たに生成する能力だ。そして,AIそれ自体が武装している場合や防衛システムを統御するAIシステムのような場合を除き,普通のAIは直接に武力を行使することがない。

それゆえ,支配層の中では「天才」または直接に軍隊レベルの武力を行使できる者しか生き残れない。

「秀才」を再生産し,「学歴」の信頼性を維持するための受験予備校のような社会システムは,明らかに,過去のものとなってしまった。

 

 

| | コメント (0)

2023年1月13日 (金曜日)

AI技術はエンドユーザレベルの情報セキュリティの方法論を変化させ始めている?

下記の記事が出ている。

 Artificial intelligence now a match for natural ignorance
 Sophos: January 10, 2023
 https://news.sophos.com/en-us/2023/01/10/artificial-intelligence-now-a-match-for-natural-ignorance/

| | コメント (0)

より以前の記事一覧