人工知能と戦争の未来――国際的議論の最前線

国連軍縮研究所「イノベーション・ダイアローグ」参加レポート

執筆者:高木耕一郎 2023年7月26日
タグ: AI
2023年の「イノベーション・ダイアローグ」のテーマは「未来の戦場における人工知能の影響」に置かれた 出所:国連軍縮研究所公式Twitterアカウント
予測不能性、透明性と説明責任の欠如、偏ったデータに起因するバイアスなど、AIの軍事利用には多くの問題が予想される。しかし、すでに現実は大きく進んでいるのも間違いない。機械が自動的に人間の命を奪う倫理上の問題に議論が集中しがちだったこのテーマは、防御的側面での有用性など、更に幅広い論点が求められている。

 2023年6月27日、人工知能(AI)の軍事利用に関する世界の専門家がスイス・ジュネーブの国連軍縮研究所に集まり、同研究所の「イノベーション・ダイアローグ」に参加した。「イノベーション・ダイアローグ」は、国際平和と安全保障に大きな影響を与える可能性のある科学技術の発展について検討するため、国連総会の決議に基づき2019年に始まったものである。

 5回目となる本年のテーマは「未来の戦場における人工知能の影響」であり、筆者もパネリストとして招待され、同会議に参加して議論に加わった。本稿においては、その経験を踏まえ、人工知能の軍事利用に関する国際的議論の最前線について紹介する。

人工知能の軍事利用は避けられない

 国連軍縮研究所の「イノベーション・ダイアローグ」は、2023年のテーマを「未来の戦場における人工知能の影響」とし、6月27日にスイス・ジュネーブにおいて開催された。陸上、海上、航空という伝統的領域に加えて、サイバー、宇宙、認知領域という新たな領域における人工知能の影響を探るため、軍事、技術、法律、倫理の専門家が参加した。

 終日にわたり、順次6つのパネルが行われ、このテーマを専門とする世界の専門家23名がパネリストとして登壇し、議論を行った。パネリストとして登壇したのは世界各国の大臣、大使、大学教授、研究者、技術者、軍人などであり、産学官軍の垣根を超えた国際的な議論が行われた。また、会場に集まった聴衆とライブ配信の視聴者も、それぞれ100名近くを数え、活発な質問も行われた。

 主催したのは国連軍縮研究所であり、パネリストの中には赤十字国際委員会の法律アドバイザーなど、人道上の観点を専門とする参加者もいた。しかし、全体として、人工知能の軍事利用そのものの規制を主張するような議論は見られなかった。むしろ、多くの参加者が共通して語ったのは、「人工知能の軍事利用は避けられない」という認識である。

 人工知能には、予測不能性、透明性と説明責任の欠如、偏ったデータに起因するバイアスなどの危険性が内在し、その軍事利用に伴い多くの問題が予想される。しかし、現実として、すでに人工知能の軍事利用は大きく進んでおり、誰もそれを止めることはできない。また、人工知能は、攻撃よりも防御的側面において有用であり、必ずしも人間にとって有害というわけではない、といった議論も行われた。

陸海空、宇宙、サイバー、認知領域に区分した専門的な議論

 会議は、陸上、海上、航空、宇宙・サイバー・認知領域という領域別のセッションに区分して順次議論が行われ、最後に大臣・大使級による総括セッションが行われた。各領域の特性を際立たせた議論を行うことにより、人工知能の軍事利用における様々な論点をあぶり出そうとする狙いが見られた。

 筆者が参加したのは、第1パネル「陸上領域と人工知能」であり、4人のパネリストのうちの1人として登壇した。ただし、他の3人は大学、研究機関などの研究者であり、必ずしも陸上領域に特化した経験、経歴を持っていなかった。このため、現役の陸上自衛官である筆者が、パネルにおける最初の発言を行い、陸上領域における人工知能利用の特性を説明し、議論をリードする役割を任された。

 こうした中で筆者が特に強調したのは、陸上領域の複雑性である。数百人が一つの艦艇に搭乗する海上領域とは異なり、陸上領域においては、個別に行動する数千、数万の兵士、兵器、センサーを効果的に同期化させる必要がある。このため、陸上領域の作戦計画の立案とその実行は、他の領域に比べて複雑であり、多くの時間を要する。

 これに対し、ChatGPTのような大規模言語モデルの登場は、軍事作戦の計画立案を人工知能が行うことができる可能性を示唆した。また、ターゲティング(攻撃目標とそれを攻撃する兵器の選定)や、ロジスティクス(補給品の種類、量と輸送手段などの選定)など、人工知能を用いた組み合わせ最適化を適用しやすい分野もある。人工知能の利用は、陸上領域の複雑性を低減させ、その結果として作戦の進展が早くなる可能性がある。

 また、艦艇、戦闘機などの兵器同士の戦いが主体の海上、航空領域とは異なり、陸上領域においては人間が直接戦う。このため、兵士の恐怖心、疲労という、人間本来の性質が表出しやすい。こうした人間の性質に起因する予測不能性、それに伴う複雑性は、「戦場の霧」と呼ばれ、戦争の不変の性質とされてきた。例えば、一人の兵士が恐怖心から逃げ出し、それを契機に大軍が総崩れとなった事例は、歴史上多く存在する。

 人工知能は、恐怖心や疲労とは無縁である。人工知能が導き出す冷静な計算結果は、こうした戦争の複雑性と予測不能性を低減させるかも知れない。しかし、人工知能にも予測不能性が内在している。人工知能が導き出す結論は、外部からは検証できず、なぜそのような結論が導き出されたのか、人間には理解できない。仮に人工知能が誤った判断を下して、味方兵士や民間人に死傷者が出た場合、その理由を誰も説明することができず、説明責任を果たすことができない。

人工知能の軍事利用の功罪:コインの裏表

 人工知能の利点と欠点は表裏一体であり、その関係は単純ではない。……

カテゴリ: 軍事・防衛
フォーサイト最新記事のお知らせを受け取れます。
執筆者プロフィール
高木耕一郎(たかぎこういちろう) ハドソン研究所研究員。陸上自衛隊1等陸佐。1978年生まれ。北海道大学工学部卒、北海道大学大学院工学研究科修了後、2004年陸上自衛隊入隊。バージニア大学公共政策学部修了。陸上幕僚監部防衛部防衛課防衛班、統合幕僚監部運用部運用第1課防衛警備班等を経て現職。最近の著作は、”Can China Build a World-Class Military Using Artificial Intelligence?”, Real Clear Defense (February 7, 2023); “Xi Jinping’s Vision for Artificial Intelligence in the PLA”, The Diplomat (November 16, 2022);”Future of China’s Cognitive Warfare: Lessons From the War in Ukraine”, War on the Rocks (July 22, 2022) ; ”New Tech, New Concepts: China’s Plans for AI and Cognitive Warfare”, War on the Rocks (April 13, 2022)、「新領域から『バトル・オブ・ナラティブ』へ」(『戦略研究』、2020年)、「新領域に広がる将来戦と『戦場の霧』」(『国際安全保障』、2020年)、「新領域における将来戦」(『戦略研究』、2019年)、「無人兵器は何処に向かうのか」(『戦略研究』、2018年)など。
  • 24時間
  • 1週間
  • f
back to top