1. AIリスクの多角化と「境界設定」
「新興技術(emerging technologies)」が注目を集めるようになった2010年代中頃、この概念には技術発展の見通しや社会にもたらすリスクの「不確実性」ないし「曖昧さ」といった含意があったi。しかし、一部の技術領域では実装が急速に進み、それに伴って新興技術がもたらすベネフィットがある程度明確になり、その結果として各国政府の、そして民間での技術開発や利用の取り組みが加速した。それと同時に、実装の進んだ技術分野ではリスクの輪郭もはっきりと認識されるようになり、国内外において行動規範や規制の構築に向けた動きも活発化している。
人工知能(AI)はそのような動きが最も顕著にあらわれている技術分野である。各国は産業政策、科学技術政策、そして国防政策においてAIの開発・利用を中核的な課題として位置づけ、莫大な投資を進めてきた。それと同時に、2023年はAIのリスク管理をめぐる国際的な議論が大きく進展した年でもあった。AIがもたらすリスクは大まかに、自律性をめぐるもの(人と機械の関係)、技術的なもの(たとえば、機械的に発生するバイアスや差別等の問題)、社会制度との整合性に関するもの(権利侵害や司法への適用など)、人の使い方に由来するもの(選挙における偽情報の流布)などに分けることができるだろう。さらにそこに、軍事利用における問題と民生利用における社会リスクの管理という区分が加わる(それとは別に、AI関連の技術や駆動のための半導体等にかかわるサプライチェーンリスクの問題もあるが、ここでは扱わない)。
AIがもたらすリスクは、このように実に多角的である。実態として、軍事面においてもいち早く強い規制が叫ばれた自律型致死兵器システム(LAWS)のような問題から、軍隊における作戦遂行や管理業務への利用など多くの国が積極的に推進するような分野まで幅広い。また、民生面でも産業振興に資する利用方法から、政治体制に影響を与えるような問題まで、「AIのリスク」をひとまとめに論じることは難しくなってきている。それゆえに包括的な規制は必ずしも容易ではないが、それでも国際的には徐々に規制が進んでいる。この現状について、軍事と民生の「境界設定(demarcation)」という観点から功罪を考えてみたい。
2.AIの軍事利用規制をめぐる協調と対立
先に規制に向けた動きが活発になったのは軍事利用、とりわけLAWSの問題であった。大国間政治の文脈でAIの取り扱いが主要な争点のひとつとなるよりも前に、ヒューマンライツウオッチが人間の関与がないままに自律的な攻撃を実施する「キラーロボット」の問題を投げかけ、それがLAWSに関する国際規制の議論を惹起することにつながった。2019年には特定通常兵器禁止条約(CCW)において「LAWSに関する指針」が採択され、LAWSへの国際人道法の適用、人間による管理の必要性、拡散リスクへの対応などを含む11項目についての合意が形成された。「何をLAWSとみなすか」という根本的な問題は残っているものの、ここで軍事領域において各国が程度の差こそあれLAWSへの問題意識を高めたことは、その後の継続的な規制論議につながる重要な成果であった。
COVID-19が流行した影響もあり、LAWS規制の議論はその後しばらく停滞したが、2023年にはいくつかの進展があった。ひとつは、国連総会においてLAWS規制をめぐる初の決議が採択されたことである。この決議では、LAWSの実用化によって軍拡競争や紛争拡大のリスクが高まるとの認識に基づき、規制に向けた取り組みが急務となっていることが確認され、国連事務総長に対してLAWSに関する報告書の作成を求めることが定められているii。同決議には152か国が賛成しており、総論としてはLAWS規制に向けた国際的正当性は大きく高まったと評価することができよう。しかしその一方で、同決議に対してはロシアやインド等を含む4か国が反対を表明しており、中国や北朝鮮、イスラエル、トルコ、シリアをはじめとする11か国が棄権した。このことは、LAWS規制のさらなる推進について、AIの軍事利用に積極的な国々の間に明確なコンセンサスがないことも示唆しており、今後規制の実効性を高めていくにあたって大きな障壁となる。
もうひとつは、上記の国連総会決議に先立ち、2023年2月に「軍事領域における責任あるAI利用(REAIM)」サミットが開催され、成果物であるREAIM宣言には60か国の賛同が集まったことであるiii。これを踏まえて、同年11月には米国が「AIと自律性の責任ある軍事利用に関する政治宣言(以下、「政治宣言」)」を主導し、AIの軍事利用における国際人道法の遵守や人間の指揮命令系統の下でのAI兵器の運用、責任の明確化といった原則を提示したiv。「政治宣言」には2024 年2月時点で西側諸国や一部の途上国からなる52か国が支持を表明しており、日本もこれに賛同している。しかし、いずれの宣言にもロシア、イスラエル、インドは参加せず、2月のREAIM宣言に参加していた中国も「政治宣言」から外れているなど、ここでもやはりAIの軍事利用をめぐるコンセンサスは必ずしも安定していない。
もっとも、REAIM宣言の内容は、2019年にCCWで採択された11指針からの前進を示すものではないとの評価もあるv。また、現実の問題として各国はこぞって軍や官僚機構の効率化を目指し、軍事作戦の有効性を高めるためにAIの実装を進めている。「政治宣言」は、完全自律型兵器に限らず、軍の作戦遂行や管理業務への利用などといったものも含めて対象になりうる兵器規制の方向性を示すものであり、今後の具体化と履行に際しては各国の利益との調整が大きな問題となる可能性は高い。
3.AIがもたらす社会リスクをいかに管理するか
AI兵器の自律性や責任の所在をめぐる問題において残る対立に比して、社会リスクの管理をめぐる議論では官民問わず、また国境を越えるかたちでより広範なコンセンサスが形成されつつあると言えよう。それは、生成AIの急速な普及によってAIがもたらす社会リスクが顕在化したことに加えて、2024年の世界的な選挙年に臨んでAIが政治体制に投げかける対応の緊急性をめぐる認識を各国が共有したからでもある。米国では大手AI企業の自主規制を背景に、バイデン政権が官民の合意形成を進め、2023年10月には「安全・安心・信頼できるAIに関する大統領令」を発出したvi。この大統領令は、政府が規制の方向性を示しつつ、規制の実行者である民間企業とのコンセンサスに基づいている点で、共同規制(co-regulation)モデルの典型ともいえる。
EUでもAIがもたらす社会リスクへの対応が進み、2023年12月には欧州議会と閣僚理事会の間でAI規則案(EU AI Act)の成立に向けた合意が形成された。同法案では、AIが人や社会にもたらすリスクを「許容できないリスク」/「ハイリスク」/「限定的リスク」/「低リスク」に分類することで段階的なリスク管理を試みており、2025年以降の施行を目指しているvii。
こうした各国の動きと並行して、国際的な規制形成の動きが加速したことも重要である。広島AIプロセスでG7がAIの普及と行動規範の形成を進めるための合意に至ったことは大きな成果であった。その後、イギリスで開催されたAI安全サミットでは広島AIプロセスの成果にも言及しつつ、軍事規制に消極的な中国、イスラエル、トルコといった国々も入るかたちで、社会リスクの規制の推進向けた合意を作り上げた(ただし、その目的や効果まで同一であるとは限らないことには注意が必要である)viii。また、AI Safety Institute Consortiumのもとで企業レベルでも生成AIの悪用を防止し、健全な情報空間を構築するためのグローバルな連携が進んでいる。
こうした民生分野の国際的な規制形成を通じて、官民の連携が進むだけでなく、米国や欧州が進めている社会リスク管理の枠組みの調和が図られていくことにもなる。他方、欧州のAI規制案では軍事・防衛関連、また、研究開発目的のAIは議論の適用外とされ、また、AI安全サミットでは軍事利用のあり方については結論せずREAIMへの支持表明にとどまるなど、社会リスク規制の枠組みにおいては軍事的規制論との間に一定の境界が設けられている。
4.境界設定の功罪
AIはその汎用性ゆえに普遍的なベネフィットとリスクをもたらしつつある。その一方、各国は軍事的目的、産業競争力、社会規範、政治体制などに由来するさまざまな個別的利害を国際規制に反映させようとする。こうしたなか、規制枠組みの境界設定をはっきりとさせることは合意が容易な部分とそうでないものを切り分け、AIの普及速度に見合った迅速な規制を進めるために有効なアプローチであると言えよう。実際、軍事領域、民生領域の双方で、規制枠組みに関する議論は一定程度、しかし異なる速度で進んでいる。
とはいえ、これらの枠組みへの参加アクターのズレやルールの整合性の問題には留意する必要があるだろう。AIリスクに関する各規制枠組みの間で重複や隙間のない境界設定が行われれば大きな問題は起こりにくくなるが、AIの汎用性は規制のすみ分けを複雑にする可能性があるix。たとえば、軍事利用ひとつとっても、殺傷性を伴うものから軍の運用管理にかかわるもの、官僚機構の通常業務に資するものまで用途は幅広い。また、とりわけハイブリッド戦争が注目される時代において、AIを用いた敵対的勢力への攻撃は、有事から平時のいずれのフェーズでも発生しうるものであり、しかもその間にはグラデーションも存在する。AIを用いた敵対的行為はそれ自体否定されるものだとしても、その問題をどの枠組みで扱うかということは論点になりうる。AIリスクの境界を適切に設定することで規制形成を加速させることは重要だが、同時にそれらを調和させた包括的な規制の全体像も常にイメージしておく必要があるだろう。
2024年3月19日脱稿
i Rotolo, Daniele, Diana Hicks, and Ben Martin, "What Is an Emerging Technology?" Research Policy, Vol. 44, 2015.
ii United Nations General Assembly, "Lethal Autonomous Weapons Systems: Resolution / Adopted by the General Assembly," A/RES/78/241, December 22, 2023, https://digitallibrary.un.org/record/4033027?v=pdf.
iii Government of the Netherlands, "Call to Action on Responsible Use of AI in the Military Domain," February 16, 2023, https://www.government.nl/ministries/ministry-of-foreign-affairs/news/2023/02/16/reaim-2023-call-to-action.
iv U.S. Department of State, "Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy," November 1, 2023, https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/.
v Qiao-Franco, Guangyu, "Has REAIM 'Re-Aimed' AI Applications in the Military Domain?" AutoNorms Website, February 24, 2023, https://www.autonorms.eu/has-reaim-re-aimed-ai-applications-in-the-military-domain/.
vi The White House, "Fact Sheet: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence," October 30, 2023, https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/.
vii Council of the European Union, "Artificial Intelligence Act: Council and Parliament Strike Deal on the First Rules for AI in the World," Press Release, December 9, 2023, https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/.
viii UK Gov.,"AI Safety Summit 2023," https://www.gov.uk/government/topical-events/ai-safety-summit-2023.
ix この問題についてはフォーラム・ショッピングの考え方が参考になる。