AI技術による個人データの「邪悪な」侵害のおそれ
下記の記事が出ている。
ICO Warns of Fines for “Nefarious” AI Use
infosecurity: 8 December, 2023
https://www.infosecurity-magazine.com/news/ico-warns-of-fines-for-nefarious/
この記事は,主として英国の個人データ保護法制と関連するものだが,同じことは,EUのGDPR及び日本国の個人情報保護法制についても言える。
問題は,主として,3つの場面で顕在化している。
1つ目の問題は,自動化された(人間が関与しない)処理による個人の人格的側面の自動的な判定だ。これは,既にかなり多方面で実施されており,合法的なものだと信じられているが,私が観ているところではその大部分が違法行為なのではないかと思う。各国の個人データ保護当局がおしなべて無能であるために違法行為が放置されているというのが現状だ。
2つ目の問題は,自動的かつ大量のハーベスティングだ。AI技術の応用により,その精度と自動分類が高度に進んでいる。現実に極めて大規模に実行されているにもかかわらず,1つ目の問題と同様,各国の個人データ保護当局がおしなべて無能であるために違法行為が放置されているというのが現状だ。
3つ目の問題は,匿名化されたデータ(またはその集合)から個人データが復元可能となっており,既存の匿名化技術が反故にされてしまっているという問題だ。仮名化があまり意味がないということは,既によく知られている。AI技術の進歩により匿名化があまり意味がなくなってしまった点については,このCyberlawブログの「匿名化された個人データの復元」の中で既に述べた通りであり,データ統治規則の参考訳冒頭の解説部分の中でも触れている。1つ目の問題と同様,各国の個人データ保護当局がおしなべて無能であるために違法行為が放置されているというのが現状なのだが,そもそも匿名化されても識別力を回復してしまうことがあるということを全く理解できない個人データ保護当局担当者が圧倒的多数というのが現状ではないかと推定される。
なお,この問題は,暗号文の解読とも密接な関係をもっている。
| 固定リンク
コメント