ENISA:自動走行自動車の安全性と回復性に関する報告書
下記の記事が出ている。
Enisa Report Looks to Boost Smart Car Security
infoSecurity: 13 January, 2017
https://www.infosecurity-magazine.com/news/enisa-report-looks-to-boost-smart/
Plug car security holes before self-driving vehicles arrive, industry warned
ZDNet: January 13, 2017
http://www.zdnet.com/article/plug-car-security-holes-before-self-driving-vehicles-arrive-industry-warned/
ENISAの報告書は,下記のところにある。
Cyber Security and Resilience of smart cars
ENISA: January 13, 2017
https://www.enisa.europa.eu/publications/cyber-security-and-resilience-of-smart-cars/
(余談)
近時の欧州における立法をずっと読んでいると,「Resilience」が重視される傾向が強いということを理解することができる。
日本の審議会等では,旧態然とでも言うべきか,企業側委員や理系の学者等が「絶対安全だ」と豪語し,批判的な委員に対して「君らは頭が悪いからわからんのだ」と言わんがばかりの視線をくれることがある。AI関連の審議会や委員会においても,現時点でもそういうことがあるし,主幹の官僚の中にもそういうタイプの(知っている人はみんな知っているが,そのことを本人だけが全く知らないという非常に有名な)官僚が複数存在する。
しかし,過去の例を見る限り,数年も経たない間に,全く安全でないことが事実によって実証されてしまうというようなことが繰り返されてきた。
一般に,ビジネスの世界では「絶対安全だ」と断言することは禁句になっているということについて,当該理系の委員は全く無知なのだろうと思う(理系の学者が全てそうだという趣旨ではない。しかし,委員になるような「偉い先生」の中には,なぜかそのようなタイプの人物が出現することがある。)。
人間がつくるものである以上,「絶対安全」なものなどあるはずがない。
何らかの危険性があるのであれば,「それは危険だ」と正直に認めるべきだし,それを認めなければ,適正なリスク管理をすることなどできない。
リスク管理は,正確なリスク評価から始まる。
そして,リスク評価の中においても,その対応策の中においても,判断の尺度として,回復力(復元力)というものを重視する傾向が強くなっているのだということを理解すべきだろう。
一般に,人間がつくるシステムは破壊されることがあり得るし,非人為的な要因により支障が生ずることがあり得る。
そのような場合に,いかにして機能を回復させるかを考えることが本来の専門家の役割というものだろう。
それができずに「安全だ」と豪語するだけなら,小学生でもできる。
| 固定リンク
コメント