信頼できる人工知能をつくる努力が続く

患者の状態や治療履歴に合わせて、その患者にとって最適な医療を提供する個別化医療実現の時期が近付いている。そのためには過去の膨大な医療情報の解析が不可欠であり、人工知能(AI)が利用されている。医療画像からの病気の発見にもAIが利用されるし、AIで制御されるロボットが医師に代わって手術する時代も来るかもしれない。

国際電気標準会議 (IEC)サイトより:編集部

自動車に装備される運転支援システムはどんどん高度化している。その先には、完全な自動運転の時代が待っている。航空機も同様でパイロットの果たす役割は小さくなりつつあるが、自動制御される航空機が間違った判断をするとボーイング737MAXが起こしたような大事故になる。

ロボットに身を任せて手術を受けることを人々は受容できるだろうか。自動走行車や自動操縦航空機に身を任せて安心して移動を楽しむことができるだろうか。

それにはAIが信頼できる存在になる必要がある。今まで以上に機械がヒトを助ける未来が実現するには信頼性の確立が不可欠である。それは、経済社会を発展させるためにヒトとヒトの信頼が求められてきた今までと同様である。AIの採用を拒む障壁は信頼性に対する懸念である。

AIの信頼性を高めるために多分野で活動が進められている。

2019年5月にOECDが採択したAI原則には冒頭に「responsible stewardship of trustworthy AI」という表現がある。「責任を持って信頼できるAIを管理する」という意味である。

OECDサイトより:編集部

米国ではDARPA支援の下で「Explainable Artificial Intelligence」という研究開発プロジェクトが動いている。判断の理由や根拠を説明するAIを目指すものだ。わが国でも富士通がナレッジグラフを用いて説明するAIを開発している。

国際標準化団体も動き出した。AIに関わる標準化はISO/IEC JTC1 SC42で実施されている。そこでは、信頼のおけるAI実現の枠組みについて作業(PDTR 24028)が進んでいる。説明責任、バイアス、制御可能性、説明可能性、プライバシー、堅牢性、回復力、安全性、セキュリティなどについて、AI開発のガイドラインが今後提供される

737MAXの事故原因はブラックボックスに残されて記録を解析することで明らかになった。同様にAIが判断した経緯が記録されていれば、後でその判断の理由や根拠を明らかにできる。説明可能性にはこのような仕組みも含まれる。

AI警戒論を打破するには技術者だけでなく社会科学・人文科学の力が必要で、実際にそのような体制がつくられて制度的・技術的な検討が進みつつある。

山田 肇