WirelessWire News Technology to implement the future

by Category

ロボット 兵器

自律型ロボット兵器を規制する国際法

2016.02.10

Updated by ロボット法研究会 on February 10, 2016, 07:30 am JST

今年1月にスイスの保養地ダボスで開催された世界経済フォーラム年次総会において、世界的に著名な情報工学者のスチュアート・ラッセル(Stuart Russel)カリフォルニア大学教授が人工知能(AI)を備えた自律型ロボットが人間を殺しながら戦場をさまようといった未来を回避する必要を訴えた。

ある種のAIが搭載された自動追尾ミサイルや自動巡航ドローン兵器のなかには工学的には「自律的」に動作する兵器システムもあるものの、このような完全な自律型ロボット兵器については現時点で実存しないにもかかわらず、自律型致死性兵器システム(LAWS, Lethal Autonomous Weapons Systems)として、特定通常兵器使用禁止制限条約(CCW)の枠組みにおいて議論が行われている。

CCWはその正式名称が示すように、過度に障害を与え又は無差別に効果を及ぼすことがあると認められる通常兵器の使用の禁止又は制限に関する条約であり、このような国際人道法・軍縮国際法等の観点からLAWSについての議論が開始されたものである。

LAWSが議論の俎上にあがった背景には、日進月歩で民生用のみならず軍事用ロボット技術が高度化する中で、映画「ターミネーター」に登場する「殺人ロボット」のイメージで捉えられるとの影響等も指摘されることが多い。

この記事では、最近話題になることの多い自律型ロボット兵器(LAWS)に焦点を当てて、CCWでの議論を中心に紹介する。なお、自律型致死性兵器システム(LAWS)については、ジュネーブ国連本部(UNOG)ウェブサイトに関連資料、会合報告書等が掲載されている。

そもそも自律型ロボット兵器とは何か

このLAWSについて合意された定義はないものの、例えば、米国国防総省は、一度作動させてからオペレーターの介入なしで標的を選定・攻撃できる機能を自律的(autonomous)とする理解の下で定義を試みている(Department of Defense: DIRECTIVE 3000.09, 21 November 2012)。

また、殺人ロボット・キャンペーンに参加する市民団体のヒューマン・ライツ・ウオッチ(HRW)による定義は、情報工学等で特定の条件下において一定の処理を繰り返したりするように作られた制御構造との意味で使用されるループ(loop)概念に着目し、「人による入力または操作なしで標的の識別が可能なもの」を人による制御外の(human out of loop)兵器、「ロボット行動に操作可能な人間のオペレーターの監視下で標的選択・実力(force)行使が可能なもの」を人により監督された(human on the loop)兵器として、両者がLAWSに該当するとしている(Losing Humanity: The Case against Killer Robots, 19 November 2012.)。

これは米国国防省の定義と比較すると、オペレーターの介入があっても特定条件下での処理を繰り返すプログラムで制御されている場合はLAWSとしてあつかう、より広範囲の定義となっている。

赤十字国際委員会(ICRC)LAWS専門家会合報告書は、これまで試みられたLAWSの定義の事例を整理した上で、兵器システム全体の自律性よりも兵器としての決定的に重要な (critical) 機能に着目する必要があると問題提起している(ICRC, Autonomous weapon systems technical, military, legal and humanitarian aspects, November 2014.)。

このようにLAWSについては、その名称のとおり、事前に入力された標的を攻撃する自律的な致死兵器との理解が共有されているのみであり、LAWSとは何か、今後どのようにLAWSの使用禁止・制限を検討すべきか、その前提となる交渉枠組みの選択を含め議論を深化させる必要がある。

CCWの枠組みでの議論


この将来出現する可能性のある兵器として位置づけられるLAWSを巡っては、まず、2013年11月に開催されたCCW締約国会議の決定に基づいて、2014年5月に第1回非公式専門家会合が開催された[1]

この会合ではCCWの趣旨と目的の文脈の下で、LAWSの技術的側面、倫理的及び社会学的側面、法的側面、並びに運用及び軍事的側面について議論され、議長の責任より報告書が作成された。

その結論としては、この会合はLAWSについて共通理解を形成する上で有益であったものの、多くの問題が未解決のまま積み残されたままであり、更なる議論が必要であるとされ、検討結果については2014年11月に開催されたCCW締約国会議に報告されるとともに、非公式専門家会合を継続して開催することが再び決定された。

これを受けて、2015年4月に第2回LAWS非公式専門家会合が開催され、LAWSの技術的側面、自律性が高まることにより国際人道法に対して生じうる問題、人権・倫理といった関連する課題、透明性について議論された。その結果、LAWSを巡る議論を更に深化させる必要性が再確認されるとともに、LAWSの規制のあり方を今後検討する枠組みについてはCCWが適切であるとの見解が多数を占めた。

また、今後更なる議論が必要な論点として、ジュネーブ諸条約第1追加議定書第36条に規定された新たな兵器の評価[2]、マルテンス条項[3]との関連での一般的受容性、倫理との関連、人による有意の制御(meaningful human control)、重要な機能における自律性、命令及び制御、システムと人間との相互作用が特定された。

これらの課題については、2015年11月に開催されたCCW締約国会議において、2016年4月に開催される第3回非公式専門家会合において継続審議されることが決定されている。

もっとも、このような非公式専門家会合に代わり、CCWの枠組みの下で正式な政府専門家会合に移行することを2016年第5回CCW運用検討会議において勧告する決定が行われる場合には、コンセンサスで合意されることも再確認された。

これまでもCCWの下での交渉枠組みにおける決定に際してはコンセンサス方式が取られている。1か国でも反対すると意思決定がブロックされるため、近年ではクラスター弾規制を巡りCCW第6議定書交渉が頓挫した経緯もある。

このため、第3回非公式専門家会合の報告書については、議長の責任で取りまとめることが出来ても、正式なCCWにおける交渉プロセスに繋がりうるのか現時点では予断しがたく、今後の展開が注目される。

人による有意の制御

人による有意の制御については、人間と独立して機能する能力を有する兵器技術との間の相互作用であることから、兵器システムが法的・倫理的な観点から説明責任を果たしうるためには、何らかの人による制御が必要であると広く理解されているものの、この概念を巡っては必ずしも明確なものとなっていない。

例えば、米国は昨年11月のCCW締約国会議においてのみならず、以前から判断(judgement)の要素の必要性を主張しており、人による有意の制御の概念をより狭く捉えようとしていることが窺われる。

いずれにせよ、まずはどのような制御が「有意」に該当するか、LAWSのどのような振る舞いが法的に許容されるのか特定される必要があり、またLAWSの起動後に人による操作・監督に服さない状態が続く場合を想定しての検討が有益であるともされ、このような検討はLAWSの合法性や許容性を判断する際に不可欠である。

自律性を定義する試み

LAWSの法的側面を検討するためには、自律性の概念をいかに捉えるかも重要であり、標的及び行使される実力の種類、空間を移動する場合には地理的範囲の広さ、LAWSが使用される時間的枠組み等についても個々具体的に検討する必要性が報告書でも指摘されている。

更にLAWSの自律性とは何を指すのか明確化するためには、技術的観点から自律性の度合い、計算可能性、予見可能性等多元的なベンチマークに基づき検討される必要があるものとされる。

その上で人による監督の度合い、標的の性格、LAWSが使用される環境、予見性及び信頼性についても考慮した上で、特に国際人道法との関係では各国が技術的・政策的措置として遵守を確保できるのか明らかにする必要がある。

人による有意の制御のみならず自律性の概念についても、既に民生利用されているロボット技術に係る各国の国内法令に看取される自律性の概念の先例も参考になりうるものであり、LAWSを不法に使用した場合の故意・過失といった刑事法・民事法における心理的要素とも相互に関連しうるものである。

新たな兵器の合法性の評価

特にLAWSの自律性の度合いが高まると既存の国際人道法がどのような問題に直面するかとの関連では、新たな兵器の合法性の評価義務について規定したジュネーブ諸条約第1追加議定書第36条も重要な役割を果たす。

その際に考慮されるべき点の一つが予見可能性(predictability)であるとされ、LAWSに限らず予見性可能性が不十分な兵器は国際人道法の重大な違反を引き起こす可能性が高いことから、先ず国際人道法の基本的な規則である予防原則、軍民標的区別原則、均衡性原則と抵触しないことを確保しうるかの検討が不可欠である[4]

これらの原則のなかでもLAWSの場合も、人間が介在する場合と同様にその使用が軍民標的区別の原則に抵触する可能性があり、付随被害を防止しうるか、特に人間が標的とされた場合に戦闘員・文民の識別、戦闘員についても負傷して保護の対象となる者との識別が可能かといった点について既に問題提起がなされている。

おわりに-合理的な規制を目指して

日本は世界有数のロボット大国であり、AIをはじめLAWSにも密接に関連する民生用の自律性システムは様々な分野で既に広く利用されており、我々の日常生活にはなくてはならないものとなっている現状には十分に配慮する必要がある。

今後CCW等の枠組みにおいてLAWSの使用禁止・制限等の規制の検討が進められる場合にも、我々の日常生活で既に広く利用されているロボット技術に制限が課される等悪影響が生じないことが確保されることは不可欠であり、今後のロボット技術の開発可能性も妨げない形で検討が行われる必要があることを改めて強調したい。

文・福井康人(広島市立大学広島平和研究所)


 
[1] これらのCCW締約国会議では第4回CCW運用検討会議で採択された手続規則が準用されており、下部機関として設置される作業部会は非公開会合で行われるものとされるため(規則45)、市民団体、アカデミア等の有識者の参加を可能とするため意図的に非公式会合として開催されている。なお、CCWの意思決定機関としては通常5年毎に開催される運用検討会議、毎年開催される締約国会議、下部機関としての政府専門家会合等がある。
 
[2] ジュネーブ諸条約第1追加議定書第36条は、「締約国は、新たな兵器又は戦闘の手段若しくは方法の開発、取得、又は採用に当たり、その使用がこの議定書又は当該締約国に適用される他の国際法の諸規則により一定の場合又はすべての場合に禁止されているか否かを決定する義務を負う。」と定めており、ICRCコメンタリーによれば、この検討は評価の時点で如何なる状況又は一定の状況においても新たな兵器が通常の使用に際して合法か否かを決定すれば足りるとされ、新たな兵器の誤使用のケースは含まないとされている。
 
[3] ハーグ陸戦条約前文にあるマルテンス条項は、条約に明文の規定がない場合にも依然として慣習や人道法上の原則及び公共良心の要求から生じる国際法の保護の下に置かれていることを確認しており、その後の国際人道法の法典化にも反映されている(広島平和研究所編『平和と安全保障を考える辞典』(法律文化社より3月刊行予定))。
 
[4] 予防原則は、ジュネーブ諸条約第1追加議定書第57条に規定される攻撃の際の予防措置であり、文民たる住民、民用物等に対する攻撃を差し控えるように不断の注意を払うことを指す。また、軍民標的区別原則は物を「軍事目標」と「民用物」に、人を「戦闘員」と「文民」に区別し、攻撃対象を「軍事目標」及び「戦闘員」のみとし、民用物及び「文民」を保護する原則である。均衡性原則は軍事活動の巻き添えによる文民の死亡若しくは損害、民用物の損傷又はこれらの複合した損害が予想される軍事的利益を過度に超えてはならないとする原則である。(鈴木和之『実務者のための国際人道法ハンドブック』(内外出版))

WirelessWire Weekly

おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)

登録はこちら

ロボット法研究会

情報ネットワーク法学会の分科会として、人とロボットが共生する社会を実現するための制度上の課題を研究しています。本稿は、ロボット法に関心のある有志によるものです。