« EU:Eurocontrolに対するサイバー攻撃 | トップページ | ENISA AI Cybersecurity Conference »

2023年4月24日 (月曜日)

ChatGPTは,企業の新規採用試験等で使われるようになるかもしれない

企業の人事担当者の中には非常に優れた人もいるが,あまり能力の高くない人の場合もある。特に独立した専門の人事部署をもつだけの大きな規模ではない企業の場合には必然的にそうなる。

そこで,ChatoGPTをツールとして使用する企業が増えるかもしれない。

例えば,採用希望者に対して実施する質問と同じ質問をChatGPTに対しても実施し,もしChatGPTからの回答の方が優れていると当該人事担当者または経営者が判定できるときは,当該採用希望者の能力がChatGPTの処理能力よりも劣っていると推定可能なので,「採用しない」という判断をすることができるだろう。

このようにして機械的にふるいわけした後に残った(ChatGPTの処理能力よりも優れた頭脳をもっているかもしれない)採用希望者だけを更に吟味して最終的な採用決定をすれば良いことになる。

採用希望者としても,人事面談の際に予想される質問を自問自答した上でChatGPTにも同じ質問をし,自問自答の結果とChatGPTからの回答の優劣を考察してみること(または,自分では評価できないときは信頼できる第三者に評価してもらうこと)により,当該企業に採用される可能性があるかどうかを自己評価することが可能となるかもしれない。

他方,最も優れた企業においては,採用希望者が隠れてChatGPTの支援を受けるかもしれないことを予想し,ChatGPTではうまく回答できないようなタイプの論理や事項を徹底的に検討して探し出し,そのようなものを中心として採用希望者に質問することにより,ChatGPTによるカンニングのようなことを回避できるかもしれない。
論理上の必然として,そのままでは学習して応用することが不可能な論理は存在する。そのような非常に高度な論理を自由自在に応用できる経営者や人事担当者が存在する企業が多数実在するとは思われないが,一応のシミュレーションとしてはあり得る。

ちなみに,プロファイリングのためにChatGPTを使用することはできる。
しかし,世界各国の個人データ保護法令(特にGDPRに定める個人の人格的側面の自動判定の禁止)に違反することになるリスクがある。
そのようなリスクがあることを一応措くとしても,そもそも,(現実には)プロファイリングのために入力されるデータが最初から虚偽内容のものであることが頻繁にあるので,(統計を含め)まともに機能するプロファイリングシステムが本当にあるのかどうかが疑問だ。データを提供する個人は,自分をよく見せたいと思い,誇張されたデータ内容や虚偽のデータ内容を構成することはあり得る。
私見としては,そのような過去の情報に従って(プロファイリングにより)評価することそれ自体が間違っていると思っている。

リアルタイムの状態や能力の即時完全把握が正しい。

ただし,「理想的にはそうだ」と分かっていても,現実に存在する人事担当者の能力が不足している場合,経営者としては頭を抱えるしかないということになるかもしれない。

あるいは,そのような面倒はことは一切考えず,「自分を信じて」前に進むだけかもしれない。

 

[追記:2023年4月25日]

関連記事を追加する。

 #RSAC: Understanding AI's Role in Cybersecurity Beyond the Hype
 infosecurity: 24 April, 2023
 https://www.infosecurity-magazine.com/news/ai-role-in-cybersecurity/

 

|

« EU:Eurocontrolに対するサイバー攻撃 | トップページ | ENISA AI Cybersecurity Conference »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« EU:Eurocontrolに対するサイバー攻撃 | トップページ | ENISA AI Cybersecurity Conference »