スピーカー
- ロビン・ガイス国連軍縮研究所(UNIDIR)所長
- ショルナ=ケイ・M・リチャーズ駐日ジャマイカ大使、軍縮に関する国連事務総長諮問委員会議長、UNIDIR理事会議長
- 北野充、元ウィーン国際機関日本大使
- 秋山信将、日本国際問題研究所 軍縮・科学技術センター長(司会者)
1. 開会挨拶(秋山氏)
新興技術は、その利点の公正な配分、悪意のある使用による壊滅的な結果の防止、ガバナンスの枠組みや方法に関する国際的な合意達成の難しさなど、重大な課題を国際社会にもたらしている。世界の安全保障が悪化の一途をたどるなか、テクノロジーの進歩は規制を上回り、制御不能に陥る恐れがある。こうしたテクノロジーに対する効果的なガバナンス・メカニズムを確立するための新たな機運が早急に必要である。
2. はじめに(リチャーズ大使)
1980年に設立された国連軍縮研究所(UNIDIR)は、世界のあらゆる地域から支援されている自律的なシンクタンクである。そのユニークな構造により、橋渡し役としての役割を果たし、従来の多国間機構よりも非公式なレベルで活動することができる。このような役割は、新興技術の急速かつ予測不可能な発展が規制やガバナンス、対話への新たなアプローチを必要とするこの分野において特に貴重である。世界が多極化するにつれ、規制のあり方も分散化している。
3. ガイス博士によるプレゼンテーション:主な技術動向と新興技術を管理するための課題
UNIDIRは新興技術の開発における3つの主要な傾向を特定しているが、これらの傾向はグローバル・ガバナンスに明確な課題を突きつけている。
第1のトレンドは、機械戦争の台頭である。わずか10年の間に、ドローンは初歩的なシステムからハイエンド・テクノロジーへと進化し、急速に普及した。ドローンの大半は依然として遠隔操作されているが、戦場での複雑な作戦要求に応えるため、自律性を高めようとする傾向が強まっている。このことが、ドローンによる自律的な標的選択や交戦につながるのであれば、特に問題となる。これに対し、国連事務総長は2026年までに、特定の行為、特にアルゴリズムによる生死の決断を禁止する条約を提案した。この提案は野心的だが、技術開発の速いペースを考えればもっともだろう。
2つ目のトレンドは、人工知能(AI)と兵器システムの統合が進んでいることだ。AIは現在、軍事的な意思決定に情報を提供し、これを補強するためにますます使用されるようになっており、完全に軍事的意思決定に取って代わろうとさえしている。無人偵察機や人工衛星が戦場のデータを収集、データセンターに送信し、AIシステムが分析して交戦の判断を下すという、もっともらしいシナリオが考えられる。このような意思決定パターンには人間は関与しないため、統合戦争における人間の主体性と説明責任が問われることになる。
第3の傾向は、新興技術の二面性から生じる緊張に由来する。新興技術の利点を活用するための国際協力に要求が高まる一方で、一部の国家は、競争相手によるこれらの技術へのアクセスを拒否・制限するために輸出規制を実施しているという緊張関係である。新興技術に対する規制がグローバル・ガバナンスと公正な利益共有に悪影響を及ぼすと考える国家もある。このような新興技術の二面性は、既存の国際法が民生インフラ(電力網、公共交通システム...)にもたらすリスクに対処できておらず、国際条約上の保護が未だ不十分であることを明らかにしている。
4. ディスカッション
1)主要な戦略的および道徳的懸念事項
議論では、5つの重要な戦略的懸念が強調された。核兵器の拡大と核保有国の戦略における核兵器の重要性の高まり、核拡散のリスクの上昇、核使用の可能性の増大、オタワ条約からの一部の国の脱退に代表される通常兵器軍縮協定の弱体化、そして、AIと軍事戦略、特に核の領域におけるAIとの相互作用であり、指揮統制システムへの統合についての懸念である。
大きなリスクとして指摘されたのは、大規模な軍事開発のペースが加速し、自制のインセンティブがなければ、人間の手に負えない事態に陥る可能性があることだ。このようなシナリオでは、特に民間人や病院などの重要なインフラを守るために、国際法の適用が不可欠である。
道義的な観点から見ると、AIとドローンの役割の増大は複雑な課題を示している。これらの技術は民間人の犠牲を減らす可能性がある一方で、完全に自律的な意思決定が、重大な法的・倫理的問題を引き起こすためである。国内政治的な文脈では道徳的とみなされる行為も、国際的な観点からは非倫理的とみなされる可能性があり、これら異なる見解の調整は困難を極める。さらに、特に軍事的な領域において、意思決定プロセスへのAIの影響が一般市民にますます認識されなくなっていることへの懸念も提起された。
2) 規制の現状
2026年までに国連が自律型兵器システム(LAWS)規制条約を採択することは非常に野心的な試みだが、主な障害は技術的な問題より、むしろ政治的な問題である。現在のアプローチでは、国際人道法の要件を満たせないAI搭載兵器を禁止する一方、その他の兵器をより柔軟な枠組みで規制しようとしている。このことは、完全な禁止と無秩序な開発との妥協の産物と考えられている。
さらに、ソフト・ローの役割も過小評価すべきではない。最初は拘束力を持たないソフト・ローであっても、政治的な強い支持を集めれば、影響力を持つようになり、事実上拘束力を持つようになることさえある。
しかし、歴史から得られる教訓は、冷戦時代の米ソがそうであったように、軍備管理の進展は緊急性の共有と利害の一致に基づいていたことを示唆している。今日、そのような一致点は存在しない。さらに、AIはそれ自体が兵器というよりむしろイネーブラーであるという二重の性質を持っているため、規制はさらに複雑になり、共通の基盤を確立することはより困難になっている。
3) 今後の取り組み
今日の一般市民は、冷戦時代の市民が核の脅威について抱いていた情報よりも、AIのリスクについての情報が著しく不足しているため、一般市民の意識を高めることが強く推奨されている。国連事務総長の諮問委員会は、主要な勧告の概要をまとめた中間報告書を発表した。その中には、国際法の再確認、新興技術に対する具体的なルールの策定、世界的なデジタル格差の解消、ガバナンスのギャップへの対処、国家に加えて学界、産業界、市民社会を含む幅広い利害関係者の関与などが含まれている。規制は多くの場合、重大な危機が発生してからではなく、むしろその後に導入されることから、予見が不可欠であると強調された。将来を見越したガバナンスによって、国際社会はこれらの技術の恩恵を最大限に活用すると同時に、最も緊急なリスクを軽減することができるだろう。