コラム

#12 ウクライナで目の当たりにしたデジタル技術分野における経済安全保障問題
渡部俊也(東京大学未来ビジョン研究センター教授)

2022年4月22日

 第208通常国会で、経済安全保障推進法案(経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律案)[1]が審議されており、令和 4年 4月 7日に可決して、現在参議院で審議されている(4月17日時点)。法案は「サプライチェーン(供給網)」、「基幹インフラ」、「技術基盤(官民技術協力)」、「特許非公開」の4分野が柱となっているが、官民技術協力や特許非公開に見られるように、民間のかかわる技術開発、研究開発のあり方や、その成果情報に関する規制が含まれていることが特徴である。経済安全保障の概念は幅広いが、技術情報の管理については、かねてから輸出管理におけるみなし輸出規制によって行われてきた[2]。輸出管理においては軍事利用可能な製品がリストアップされていて、このリストの製品(外為法では貨物という)に関する設計、製造、利用に関する技術情報が対象になる。この場合、製品化度が高くかつ軍事転用可能性が高いものが対象になるという特徴から、目的とする製品が明らかでない基礎研究段階の研究開発情報に及ぶものではなかった。ところが近年の経済安全保障の規制は、まだ軍事転用可能性が不明で製品に結実していない段階でのデータや技術情報にも及び始めていることが特徴である。このような動向は、2018年に米国で施工された米国国防権限法 2019(National Defense Authorization Act :NDAA)[3]において、新興技術 (Emerging Technologies)を同法の下位規則である米国輸出管理規則(EAR)で具体的に規定し規制するべき旨が規定されたことが日本の政策にも影響する転換点になっている。

 ここで新興技術 (Emerging Technologies)に該当するものとして数多くの技術がリストアップされている。そこでは極超音速技術やバイオ先端材料技術なども含まれているものの、リストされている項目の多くはAI・機械学習やデータ分析、コンピューティングこれらを支えるデバイス技術が占めていることが見て取れる。掲載リストを見る限り、広範なデジタル新技術はほぼすべて、新興技術として安全保障上の管理対象となっているといっても過言ではない。

 もっとも、同法の施工から3年たった今でも、それぞれの分野の具体的な規制方法、さらにはその技術の定義についても未だ米国政府の検討が続いている。もともと軍事用途に用いられ同時に幅広い民生用に用いられる所謂デュアルユース(Dual Use)の技術については、多くは軍用と民生用でスペックの相違などがあり、その区別を前提に管理がなされてきた。しかし、AI・機械学習を例にとれば、軍事用途に使われるものと民生用途に使われるもので技術自身に相違があるわけではなく、両者を区別して規制することは極めて困難であることが検討を難しくしている理由であると推定される。

 他方AIの規制については、民生分野においても、AI技術のはらむ人権問題につながりえるようなリスクのガバナンスに関して、EUなどで検討がされてきた。経済安全保障の観点から言えば、ウイグル問題などの例でも生じた人権問題が理由でサプライチェーンに制約が生じる場合のリスクに対処するという文脈になるが、その観点からは、特に欧米のAIおよびデータに関する規制動向は重要である。EUではProposal for a Regulation on a European approach for Artificial Intelligence[4]においては、①サブリミナルな手法により人の行動を操作し、身体的・心理的損害を与えるAI、②子どもや身体的・精神的な課題を抱える方の脆弱性を利用して人の行動を操作し、身体的・心理的損害を与えるAI、③公的機関等による、行動や人格的特性をもとにその人をスコアリングするためのAI、④公共空間において法執行のために遠隔で行われるリアルタイム生体認証のためのAIなどは禁止するべきという方針が示されていた。

 このような中でウクライナ侵攻が勃発したのである。日々発信されるニュースを追っていくと、ウクライナ侵攻においては、デジタル技術、特にデータとAIの高度利用の事例が、軍事用途やその周辺の様々な場面で登場する。自律AI兵器であるロシア製の自爆型徘徊ドローンが利用された可能性[5]や、イスラエルにAIミサイル迎撃システムの供与をウクライナが要請したこと[6]。AIを使ったゼレンスキー大統領のフェイク動画がSNSで拡散されたったこと[7]は多くの人を驚かせた。また米国のベンチャー企業クリアビューAI(Clearview.ai )[8]の顔認証技術がウクライナに無償供与されたことは、必ずしも軍事用途そのものではないものの是非については人権団体などから懸念が示されている。具体的にはウクライナが、クリアビューAIからAI顔認識サービスの無償提供を受け、ロシアのSNSの顔画像20億枚を死亡ロシア兵の特定に利用し、関係ユーザーにメッセージを送り遺体引き取りの調整を行っているとされるが、ウクライナ側の情報戦の一環であるとも言われている。

 このクリアビューAIのウエブページによると、同社の顧客は法執行機関であり「犯罪を調査し、公共の安全を強化し、被害者に正義を提供するために利用できる最先端のテクノロジーを提供する」事業であるとされる、利用している情報はインターネット上の200億以上の顔画像のデータベースであるとしている。しかしこのような用途にAIを利用することは人権侵害にあたる問題であるとして、英国の規制当局は英国民の顔画像の収集・処理停止とデータ削除を命じる仮決定が公表されていた。このような経緯があるなかで、同一技術がウクライナに供与されたことになる。クリアビューAIのケースでは、同社の顧客が法執行機関であるということもあり、その事業内容が公表されているものの、仮に不特定の組織が軍事関連の目的で、インターネット上のデータと既存の機械学習で分析を行うことを察知し、規制することは極めて困難であると思われる。

 データと機械学習の組み合わせを最大限生かすことは、デジタル革命の核心的課題であり、だれ一人取り残さないSociety5.0の社会構築に不可欠な技術であることは間違いない。一方でこのリソースを最大限活用することで巨大なデジタルプラットフォーマーが生まれ、そのことが競争政策上の問題や、プライバシーガバナンスの問題にも波及した。そして今度は、データとAIの組み合わせが、高度な兵器への利用が可能であり、また同時に世論の操作や、深刻な人権侵害へ利用される懸念を、現実の紛争で目にすることになった。このことで先端デジタル技術が、人権侵害などを含む経済安全保障の観点でも深刻なガバナンス問題を抱えていることを強く認識させることになったのである。この対策としてデータ側を管理するのか、AI側を管理するのかといった基本的な方向性についても、未だ明確なアプローチが示されているとは思えない。そのなかで今回の大規模な紛争において、日々懸念されるデータとAIの高度利用が次々報道されることは大いに憂慮すべきことである。

 紛争の現実に直面する中で、データとAIの経済安全保障上の管理方策については、政府や国際機関、さらには先端デジタル技術開発を担う企業、そして技術のユーザーは、現実を注視しかつ事実の検証をしつつ、このようなリスクに関して真剣な議論を行う必要があるだろう。


[1] https://www.cas.go.jp/jp/houan/208.html 

[2] みなし輸出規制についても経済安全保障の観点から制度改正が決定しており、2022年5月に施行されるhttps://www.meti.go.jp/policy/anpo/anpo07.html

[3] https://www.congress.gov/115/bills/hr5515/BILLS-115hr5515enr.pdf 

[4] https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence#:~:text=European%20proposal%20for%20a%20legal,setting%20the%20global%20gold%20standard. 

[5] https://wired.jp/article/ai-drones-russia-ukraine/ 

[6] https://news.yahoo.co.jp/articles/d903f521065d1ed743d1c252365aac641b449578 

[7] https://www.asahi.com/articles/ASQ3L3R57Q3LUHBI00J.html 

[8] https://www.clearview.ai/

一覧に戻る