政策提言委員・金沢工業大学客員教授 藤谷 昌敏
人工知能(AI)およびその関連技術の開発に関し、米政府の委託で独立した立場から調査を行う「AIに関する国家安全保障委員会」(NSCAI)は2021年3月1日、米議会に提出する最終報告書で、AIなどに関する重要技術が中国人民解放軍に窃取されることを防ぐため、米国の大学が対策を強化すべきだと提言した。
NSCAIは、国家安全保障と国防の観点からAIや関連技術をめぐる開発のあり方を探るため、2018年に設立されたものだ。委員長は米グーグルの元最高経営責任者(CEO)であるエリック・シュミット氏、ほかにもマイクロソフト、アマゾンの経営幹部が参加している。
報告書は、中国などがAI分野での米国の支配的な地位を脅かしているとして強い危機感を表明しており、各大学に対し、AIをめぐる研究開発費の調達先や、外部の企業や団体などとの提携関係をより明確に開示すべきだと指摘した。
また、中国軍とのつながりが疑われる人物や団体が大学に入り込むのを事前に阻止するため、これらの個人や団体に関するデータベースを作成し、共有することを提案した。さらに、中国とのAI技術開発競争で後れをとらないため、自律型致死兵器システム(LAWS)※を含むAI兵器の開発を禁止すべきでないと主張した。
※ 自律型致死兵器システム(Lethal autonomous weapons systems:LAWS)は、AIを搭載し、人間を介さずに標的を判断し殺傷を決定する無人兵器のことで、自律型兵器、AI兵器、ロボット兵器、キラーロボット、殺人ロボットとも言われる。
制度面では、AI技術の総合的な戦略を構築するための「技術競争力に関する審議会」の設立や、IT分野での傑出した人材を育成するための専門教育機関の設置などを訴えた。現在の米国の対中国の軍事及び非軍事の戦略がこの報告書を基に組み立てられていることは言を俟たない。(2021年3月3日、産経新聞)
報告書が指摘するように今やAIは、世界を大きく変える革新技術だ。米国がAIの関連技術に対し、グーグル、アマゾンなど民間の巨大産業も交えた官民一体の厳しい規制を行おうとする背景には、技術革新が安全保障領域に劇的な変化を与えているという現実がある。
これまでの伝統的安全保障では、陸、海、空の3領域における量的質的優位を構築するということが主な戦略だった。しかし、技術革新の進歩は、これらの3領域だけではなく、サイバー空間、宇宙空間を加えた領域がインタラクティヴに作用する世界を作り上げた。
これにより、安全保障の領域は空間と複雑さを一層拡大することとなり、それらすべての領域で優位に立たなければ、本当の安全保障とは言えない時代が来たのだ。
AI登場の意味とは
これまでのAIがない世界では、核兵器は戦争の際限ない拡大と残虐性をパラドクシカルに固定化させていた。つまり、核兵器は、自身が持つ巨大なエネルギーと破壊力ゆえに地球さえ破壊し兼ねない兵器と化し、人類が使用できない矛盾した兵器となった。核ミサイルが自国を目指して飛んでいることが分かったときに、反撃の核ミサイルのスイッチを押せば、敵国も自国もなく人類が絶滅することになる。これは神さえも押せないスイッチだ。
だがAIが登場して以降、軍事面では無人航空機・車両・潜水艦などを生み出し、戦争のハードルが大きく下がった。こうしたドローンは、人間が前線に立たないことで犠牲者を大きく減少させる効果がある。それは戦争に踏み切ることを為政者に容易に決断させることになる。つまり、為政者にとって、兵士の犠牲者が少ないことは国民の不満をそらす重要な要素だからである。
一方、非軍事面におけるAIの発達は、医療、環境保護、交通などで大きな成果を挙げた。例えば、医療では、患者のデータを分析して最適な治療法を提案して、ガンなどの早期発見と治癒に寄与した。環境保護では、環境データの解析により、気候変動の予測や自然災害の早期警報システムの構築に貢献した。交通では、交通システムへの活用により交通渋滞の緩和や事故の減少が期待された。AIは、非軍事面でも社会全体の効率化や生活の質の向上に大きく貢献したのだ。
自律型致死兵器システムの開発をどう規制するべきか
先のNSCAIの報告書の中で提案されたことは、AIの関連技術の流出防止策だけではない。注目すべきは、「中国とのAI技術開発競争で後れをとらないため、自律型致死兵器システムを含むAI兵器の開発を禁止してはならない」ということがむしろ強調された点にある。
防衛研究所の川口礼人氏は、論文「今後の軍事科学技術の進展と軍備管理等に係る一考察」において、
LAWS は未だ現存しない兵器であるため、参加国間での共通理解が得られておらず、今後、規制等の枠組みをどのように構築するかが国際社会の課題となっている。LAWS は現存しないものの、その構成要素は産業界等が注目するデュアル・ユース技術であることからも、当該兵器への転用のリスクは回避できない問題である。よってLAWS に対する規制枠組み等を実効性のあるものにするためには、国際社会が LAWS の定義や潜在的リスクを共有するとともに、国家間、産業界、研究機関等の間で開発や利用の制限に関する法制度やスキームを多層的に設けることが重要である。
と結論づけている。
こうした中、2024年8月、国連のグテーレス事務総長は、自律型致死兵器システムの問題に強い危機感を示し、「再来年までに人命を奪うものは禁止し、そのほかの自律的なシステムも規制する、法的拘束力のある文書を締結する」よう各国に呼びかけた。国連の強い指導力が一層、発揮されることを強く期待する。
【参考】
・2021年3月3日付産経新聞
・川口礼人「今後の軍事科学技術の進展と軍備管理等に係る一考察 ―自律型致死兵器システム(LAWS)の規制等について―」防衛研究所。
■
藤谷 昌敏
1954(昭和29)年、北海道生まれ。学習院大学法学部法学科、北陸先端科学技術大学院大学先端科学技術研究科修士課程卒、知識科学修士、MOT。法務省公安調査庁入庁(北朝鮮、中国、ロシア、国際テロ、サイバーテロ部門歴任)。同庁金沢公安調査事務所長で退官。現在、JFSS政策提言委員、経済安全保障マネジメント支援機構上席研究員、合同会社OFFICE TOYA代表、TOYA未来情報研究所代表、金沢工業大学客員教授(危機管理論)。主要著書(共著)に『第3世代のサービスイノベーション』(社会評論社)、論文に「我が国に対するインテリジェンス活動にどう対応するのか」(本誌『季報』Vol.78-83に連載)がある。
編集部より:この記事は一般社団法人 日本戦略研究フォーラム 2024年9月26日の記事を転載させていただきました。オリジナル原稿を読みたい方は 日本戦略研究フォーラム公式サイトをご覧ください。