対人地雷・クラスター弾規制の視点から見る自律型殺傷兵器(LAWS)の固有の課題
はじめに
自律型殺傷兵器(LAWS)の開発と潜在的な配備は、将来の紛争形態に質的な変化をもたらす可能性が指摘されており、国際社会ではその倫理的、法的、人道的な影響について活発な議論が進められています。特に、人間の関与なしに標的を選定し攻撃を加えるというLAWSの特性は、既存の国際法、中でも国際人道法(IHL)や国際人権法の適用に新たな、かつ深刻な課題を突きつけています。
LAWSに関する議論が複雑である一因として、その技術が急速に進展していること、そしてその「自律性」の定義そのものが依然として流動的である点が挙げられます。こうした状況下で、LAWSの規制を巡る国際的な議論、例えば特定通常兵器使用禁止制限条約(CCW)の枠組み内での専門家会議などは、合意形成に苦慮している状況です。
このような背景において、過去に国際的に強い懸念を呼び、その使用や保有に対して厳しい規制あるいは全面的な禁止が実現した特定通常兵器、例えば対人地雷やクラスター弾に関する規制プロセスとその根拠を振り返ることは、LAWSの固有の課題を理解し、将来的な規制のあり方を検討する上で有益な示唆を与えてくれると考えられます。本稿では、対人地雷およびクラスター弾の規制の経緯と論点を概観しつつ、そこからLAWSの規制議論が学ぶべき点と、LAWS固有の課題が従来の兵器規制とは異なるアプローチを必要とすることについて考察します。
対人地雷およびクラスター弾規制の経緯と人道上の懸念
対人地雷とクラスター弾は、いずれも一度使用されると長期にわたり文民に対して無差別的な被害をもたらすという共通の特性を持つ兵器です。
対人地雷は、その名の通り、人間が踏むなどの圧力や特定の操作によって作動し、その場で人間を殺傷または負傷させる兵器です。特に「ブービートラップ及びその他の仕掛け」に関する特定通常兵器使用禁止制限条約(CCW)の議定書II(改正議定書)で規制されてきましたが、その無差別性、紛争終結後も長期にわたり文民を危険に晒し、復興や人道支援活動を妨げる深刻な人道上の影響から、より強い規制、すなわち全面禁止を求める声が高まりました。この動きは、国家だけでなく、NGOなどの市民社会の強い働きかけによって推進され、1997年の対人地雷の使用、貯蔵、生産及び移譲の禁止並びに廃棄に関する条約(オタワ条約)として結実しました。オタワ条約は、対人地雷の全面的禁止と廃棄、被害者支援、地雷除去などを義務付けており、人道上の懸念を理由に特定の兵器類型を包括的に禁止した画期的な事例と言えます。
一方、クラスター弾は、爆発すると広範囲に多数の子弾(不発弾となるリスクが高い)をばら撒く兵器です。紛争地域に広く散らばった不発の子弾は、対人地雷と同様に紛争終結後も文民、特に子供にとって深刻な脅威となり、人道的な被害や復興の遅延を引き起こします。クラスター弾の無差別性と不発弾問題による長期的な人道被害への懸念から、2008年にクラスター弾に関する条約が採択されました。この条約もまた、クラスター弾の使用、開発、生産、取得、貯蔵および移譲の禁止などを定めており、人道的な影響を主要な根拠とする兵器禁止条約です。
これらの規制の成功は、兵器がもたらす予測可能かつ広範な文民被害という明確な人道上の懸念が、国際的な規範形成と法的拘束力を持つ条約の成立を強く推進したことを示しています。特に、市民社会の積極的な関与が、国家間の交渉を後押しする重要な要因となりました。
LAWSの特性と国際法・倫理上の固有の課題
LAWSは、対人地雷やクラスター弾とは異なる、AIと自律システムという技術を基盤としています。その最も本質的な特性は、「人間の意味ある制御(Meaningful Human Control: MHC)」を欠くか、著しく限定された状態で、標的を選定し、攻撃を実行する能力を持つ点にあります。この特性は、国際法、特にIHLの基本的な原則に新たな課題を突きつけます。
IHLは、紛争当事者に対し、戦闘員と文民、軍事目標と民用物を区別する義務(区別原則)、および軍事目標への攻撃によって予期される文民の生命の喪失、傷害、または民用物への損害が、得られると予期される具体的な軍事的利益と比較して過大であってはならないという義務(比例性原則)を課しています。LAWSが自律的な判断でこれらの区別や比例性の評価を行う場合、以下のような固有の課題が生じます。
- 判断の予測不可能性と説明可能性の欠如: AIシステムによる標的選定や攻撃判断のプロセスは、特に深層学習などの技術を用いる場合、「ブラックボックス」化する傾向があります。なぜ特定の対象を標的と判断し、攻撃を加えたのか、その理由を後から人間が完全に理解し、説明することが困難になる可能性があります。これは、IHL違反が発生した場合に、その責任を追及する上で深刻な問題となります。
- 責任の所在の曖昧化: 自律的なAIの判断による結果に対して、誰が、どのような責任を負うのかが明確ではありません。AIシステムの開発者、製造者、配備を決定した指揮官、運用に携わったオペレーターなど、複数の主体が関与しうる中で、IHL違反や人道上の被害に対する国家責任、個人責任をどのように判断し、帰属させるのかという法的・倫理的な課題が生じます。「人間の意味ある制御」のレベルが低下すればするほど、この責任の空白が生じるリスクが高まります。
- AIバイアスによる無差別攻撃リスク: 学習データに内在する偏り(バイアス)が、AIシステムの判断に影響を与え、特定の属性を持つ人々や物を不当に標的とする可能性があります。これは、区別原則や非差別の原則に反する行為につながるリスクを内包しています。
- 紛争の敷居低下とエスカレーション: 人間の直接的なリスクや心理的負担なしに攻撃が可能となることで、国家が武力行使を選択する際の心理的・政治的な敷居が低下し、紛争が発生しやすくなる、あるいは限定的な紛争が急速に拡大・エスカレートするリスクが指摘されています。
- 技術進化のスピードと規範構築の遅れ: LAWS関連技術は急速に進歩しており、その能力や運用態様が常に変化しています。これに対して、国際法や倫理規範の議論、そしてそれを実効性のあるルールとして確立するプロセスは、一般的に時間を要します。技術の発展が規範形成を常に先行するという状況は、法の支配が及ばない領域を生み出す懸念があります。
対人地雷・クラスター弾規制からLAWS規制への示唆とLAWS固有の論点
対人地雷やクラスター弾に関する規制の経験は、LAWSの規制議論に対していくつかの重要な示唆を与えます。
まず、人道上の深刻な懸念が、技術的な利便性や軍事的な有効性を上回る強力な規制の根拠となりうるという点です。LAWSもまた、その自律性ゆえの予期せぬ、あるいは無差別な文民被害を引き起こすリスク、そして責任追及の困難さといった点で、対人地雷やクラスター弾と同様に深刻な人道上の懸念を内包しています。これらの懸念を明確に提示し、国際社会全体で共有することが、規制に向けた合意形成の推進力となります。
次に、市民社会の役割の重要性です。対人地雷キャンペーンに代表されるように、NGOやアカデミア、そして世論の力が国際条約の成立に不可欠な推進力となりました。LAWSの規制に関しても、技術・法律・倫理といった多様な分野の専門家を含む市民社会が積極的に議論に参加し、政策決定者に働きかけることが重要です。
しかしながら、LAWSが提示する課題は、対人地雷やクラスター弾が提示した課題とは性質が異なる側面が多くあります。対人地雷やクラスター弾の問題は、主に「兵器の物理的な効果が無差別的であり、紛争終結後も持続する」という点にありました。これに対して、LAWSの問題は、その「意思決定プロセスが自律的であり、予測困難で説明が難しい」という点に根差しています。
この違いは、規制のアプローチにも影響を与えます。対人地雷やクラスター弾は、特定の「物」としての兵器類型を禁止するアプローチが有効でした。しかし、LAWSの場合、「自律性」のレベルは連続的であり、完全に自律的なシステムから人間の高度な監視下にあるシステムまで様々です。特定の「兵器類型」を定義して禁止することが技術的に困難である可能性があります。むしろ、問題となるのは、特定の機能(例:人間の関与なしに標的を選定し攻撃する機能)や、特定の運用態様(例:特定の環境下での使用)を規制するアプローチ、あるいは「人間の意味ある制御」がどのように定義され、技術的に保障され、法的に検証されるべきかという点に焦点が移ります。
したがって、LAWSの規制議論は、単に既存の兵器禁止条約のモデルを適用するだけでなく、AI技術の特性、意思決定プロセスの透明性、責任の帰属メカニズム、そして人間の役割といったLAWS固有の課題に対応するための、より精緻で新たな規範構築アプローチを必要とします。予見可能性、説明可能性、監査可能性といったAI倫理における概念を、いかにIHLや責任原則の文脈に位置づけ、実効性のあるルールに落とし込むかが、今後の重要な論点となります。
結論
対人地雷およびクラスター弾の国際的な規制・禁止条約は、兵器がもたらす深刻な人道上の懸念を根拠に国際的な規範が形成されうることを示す重要な事例です。これらの兵器がもたらす長期的な無差別被害という課題は、LAWSが持つ潜在的な無差別性や責任空白といった懸念と共通する部分があり、規制議論の重要性を再認識させる上で示唆を与えてくれます。
しかし、LAWSの最も本質的な問題は、その「自律的な判断」プロセスとその帰結にあるため、対人地雷やクラスター弾のような特定の「物」を禁止するアプローチだけでは不十分である可能性があります。LAWSの規制議論は、AIの意思決定プロセスの特性、人間の制御のあり方、責任の所在といったLAWS固有の課題に焦点を当て、技術的な側面と法的・倫理的な側面を統合した、新たな規範の構築を模索する必要があります。
LAWSに関する国際的な議論、特にCCWの枠組みにおける専門家会議では、「人間の意味ある制御」の概念化や、特定の機能・運用に対する規制の可能性などが継続的に検討されています。対人地雷・クラスター弾規制の経験から学びつつも、LAWSが突きつける新たな問いに対して、国際社会は技術開発のスピードを注視しながら、より深い法的・倫理的な分析と規範構築に向けた努力を続ける必要があります。このプロセスには、国際法・倫理学の専門家はもとより、技術、軍事、人権擁護など、多分野からの継続的な知見の結集が不可欠です。