「市場投入前に、製品の使用環境に照らして安全性リスクを洗い出して評価し、計算されたリスクが社会的に許容可能な大きさ以下になるように製品を設計製造しなければならない」というのが安全工学の教えである。
この教えは正しいが、間違っている。
社会的に許容可能なリスクレベルにすることが、すなわち、社会的に利益が得られるというわけではない。技術に対する理解が不足してリスクを過大評価すれば、技術の利用範囲が狭められる。個人情報を匿名化してビッグデータとして扱うことで新しい知識が生まれる可能性がある。しかし、匿名化技術に対する理解が不足すると、「万一個人が特定される恐れ」が過剰に強調されビッグデータの活用は阻害される。
社会はリスクを過小評価する場合もある。eスポーツが興隆の兆しを見せているが、WHOはゲーム依存を疾病に分類している。プレイヤーとして成功すればよいが、途中で落後する多数の選手には社会で普通に生活していくための治療が必要になるかもしれない。
ロボット掃除機がファンヒータを押して火事になることがあると東京消防庁が警告したように、複数製品の競合リスクを社会が想定していない場合もある。これもリスクの過小評価の例である。
個人情報の利用について社会的不安を解消するためにOECDは1980年にガイドラインを作成した。これが各国の個人情報保護法制の源になっている。AI(人工知能)の活用も不安を感じている人々がいるが、それに呼応してOECDはじめ各国各地域が「AI社会原則」を作り始めた。社会原則に沿うことが社会どのような利益をもたらすか、わかりやすい説明(社会教育)が必要である。
このように、新技術の普及には教育が欠かせない。
僕は7月12日に開催されたシンポジウム「科学技術と社会」で僕はこのように講演した。多くの講演者が科学技術と社会の関係について語ったが、教育の必要性について論じたのは僕一人だった。
日本心理学会が9月に大阪で開催する第83回大会での初日(9月11日)には「科学技術と社会:人工知能の社会受容性と研究者の役割を中心に」シンポジウムが開催され、議論が続けられることになった。
情報通信政策フォーラム(ICPF)では7月25日にOECDのAI原則についてセミナーを開催する。どうぞ、ご参加ください。