はじめに
2020年10月、米国は「重要・新興技術に関する国家戦略」(以下、C&ET戦略)を発表した1。そこでは、米国が経済や安全保障の面で競争力を維持するにあたり、新たな科学技術やイノベーションへの取り組みを推進することの重要性が確認された。そのうえで、この戦略では①民間セクターを巻き込んだ「国家安全保障革新基盤(National Security Innovation Base)」の涵養、②違法な技術窃取の防止や投資規制などを含む技術保護の促進、という二つの柱が掲げられている。
これらは基本的に、トランプ政権がそれまで実施してきた安全保障分野におけるイノベーション推進に向けた方針を再確認するものという性格が強いが、C&ET戦略の注目すべきポイントとして、重視すべき技術分野に優先順位をつける方針を明示したことが挙げられよう。米国はもっとも重要な技術分野において世界的なリーダーシップを追求する一方、比較的優先順位の高い分野では同盟国や友好国との協力による技術の発展、保護を図り、さらにそれ以外の分野においてはリスク管理が中心となるという三分類の提示である。
具体的な分類がどのように行われていくかは今後注視していく必要があるが、そのような優先順位付けに対して国内外のアクターがいかなるかたちで合意できるかということは、技術管理上の一つのポイントとなるだろう。実際のところ、技術の性質や実装レベルの相違、あるいは関与する民間セクターの利害によって、表出する問題は必ずしも一様ではない。このような観点から、本稿では一例として5GとAIを取り上げ、新興技術の管理をめぐって生じる課題の多様性について考察してみたい。
5Gのリスク管理をめぐる国際的なコンセンサス形成の問題
5Gは「新興技術」のカテゴリーに含まれるかどうかについて議論の余地があるものの、近年の技術安全保障の国際的なリスク管理の側面を理解するにあたり、示唆に富んだ事例である。とりわけ、サプライチェーンリスクの問題を論じる際のモデルケースとなっていると言えよう。
ここで問題視されたのが、ファーウェイやZTEなどの企業が5G技術の開発や関連企業の買収に向けて多額の投資を行い、特許取得や標準化においても主導的な地位を占めるようになっている点であった。企業が経営上の理由で戦略的に技術投資や買収を行うことは当然のことであり、経済的自由主義を支持する立場からすれば、こうした企業活動を抑制することは妥当ではない。しかし、安全保障の観点からは、こうした企業が「軍民融合」という方針のもとで莫大な補助金や法的な裏づけを得て、中国政府の意を汲んだかたちで他国の安全保障を脅かすような行動を起こしうることが、リスク管理上の大きな問題とみなされてきた。
情報通信に関するこのような問題は、米国内にとどまらず、広く同盟国や友好国との関係においても対応が求められるものとなっている。軍事的観点からは、5Gの導入を通じて同盟国間の高速情報通信が実施可能になることが期待される一方、それによってスパイ行為やサイバー攻撃などリスクが発生することが懸念されるようになった。
米国は対米外国投資委員会(CFIUS)の強化による投資規制や政府調達の制限などを通じて、中国に対する5G関連技術を通じた脅威の排除、ないし影響力の行使を続けると同時に、同盟国や友好国に対しても、ファーウェイ製の5G製品を排除するよう求めてきた。しかし、その反応はこれまで、必ずしも画一的なものではない。
一方では確かに、オーストラリアやニュージーランドがファーウェイとZTEの5G事業への参入を禁じるなど、米国の意向に沿ったかたちで行動が具体化するケースはある。他方、今でこそ欧州諸国は徐々に規制強化の方向に向かっているが、当初の反応は米国に比べると鈍く、また、不揃いでもあった。さらに、中国は「デジタルシルクロード」構想を通じて5Gをはじめとする通信インフラの普及を推し進めようとしてきたが、途上国にはセキュリティやインフラ支配の懸念があるにもかかわらず、経済的、社会的な発展を優先して安価なファーウェイ製の5G製品を導入する可能性があることも問題となっている2。
このような5Gの事例は、米中対立の中で技術管理を強化することの重要性を再確認させるものとなった。しかし、先端技術の採用や規制においては同盟・友好国間で協調的な行動をとることが必要であるにもかかわらず、実態としては脅威の緊要性や経済関係、当該技術が各国社会にもたらす効用の違いよって、採用できる規制の水準にズレが生じているのである。
AIの国内エコシステムにおける規範的衝突
研究開発体制のグローバル化や半導体供給の問題など、AI分野でも同様に国際レベルで考慮すべき課題は山積している。それに加えて、将来的な用途をめぐる規範・倫理面での国内的な調整が必要になっていることは重要なポイントであろう。
2018年に国防総省が発表したAI戦略を見てみると、AIの利用を進めるためのアプローチとして、作戦補助、訓練、維持管理、部隊保護、兵員の募集、ヘルスケアなどを含めて、戦場から通常業務まで含めた全省的な利用が想定されていることがわかる3。また、AI関連人材の育成、民間企業や学術界、同盟・友好国を含めた連携の強化を進める一方、AIをあくまでも人間の管理下に置くという判断のもとで倫理基準や安全性の確保に努めていくことも述べられている。
AIの用途やそれがもたらす自律性の問題については、安全保障政策の文脈でも常に問題視されてきている。AI戦略の発表を待つまでもなく、2012年の国防省指針はすでに兵器システムの自律性について、人の判断や介在を重視する方針が出され4、それが無人システムの運用方針にも反映されている5。この「指針」は、ひとつの倫理基準の参照点として、2018年AI戦略でも言及されるものとなっている。
このような「指針」が必要とされる背景には、安全保障分野におけるAIの開発や利用は、さまざまなステイクホルダーを巻き込んだものとなっており、そうした中で利用方針や倫理基準をめぐるコンセンサス形成の重要性が高まっていることがある。2020年、国防省はAI5原則を発表したが、そこでは①AIの開発・展開・使用に係る責任、②AIのバイアス排除(公平)、③プロセスの追跡可能性、④安全性や効果についての信頼、⑤意図せざる結果に対する人の介入(統治)、といった方針が明示されている。
重要なポイントは、この5原則が国防イノベーションに向けた諮問会議(Defense Innovation Board)の勧告に基づきつつ、「商業界、政府、学界、一般市民の主要AIエキスパートとの15か月間の協議の結果」として発表されたという点である。すでに述べた通り、米国のAI開発はすでに民間セクターを含めた体制で進めることが前提となっており、実際のところ、AI研究に関しては「国防革新ユニット(Defense Innovation Unit)」などの設置を通じて官民の連携が進んでいるが、多様なアクターがAIのエコシステムに入ってくることで、さまざまなアイディアだけでなく、批判も出てきている。それがあらわれたのがGoogleの問題であった。Googleでは社内の反対により、AIを利用した画像処理による標的識別を目指すMAVENプロジェクトへの参加が取りやめられたほか、JEDI(Joint Enterprise Defense Infrastructure)事業の入札から撤退し、その後に社内で兵器や人を害する技術を追求しないとの原則を発表することにもつながった6。
おわりに
米国ではオバマ政権から続くオープンイノベーション路線によって、民間セクターの参画を背景とした研究開発や社会実装が加速する一方、エコシステムの管理に際して国内外の多様な利害や規範を考慮せざるをえない状況も生じている。言い換えれば、こうした多様な価値を調整し、一定のコンセンサスを形成することによってはじめて、新興技術の管理は機能するということでもある。
しかし、本稿で取り上げた5GやAIの事例が示すように、その政治課題は技術分野の特徴やそれを支えるエコシステムの構成によってさまざまなかたちであらわれる。このことは、新興技術の開発や規制をめぐる政策形成を一絡げに策定するだけでなく、各技術分野に固有の問題に合わせたカスタムメイドの対応が必要になってくることを意味するのだろう。
いずれにせよ、米国の提示した分類が協調すべき同盟・友好国にとって同様の利害を反映しているとは限らず、各国で構築されているエコシステムに固有の内部事情もある。そうした観点から、C&ET戦略で論じられるような新興技術の管理をめぐる「総論」とともに、それが技術分野に固有の特徴と各国事情が結びついた「各論」にいかに落とし込まれていくのかを考察していく必要があろう。