機械による殺人は許されるか――「AI兵器」規制をめぐる国際論争の現状と展望

オランダ軍の小型偵察ドローン「ブラック・ホーネット」は、重さわずか18グラムだ ©EPA=時事
技術の進歩が人類の生活をより便利にしていく一方、先端技術の多くが“戦場”で生まれているという負の側面もある。すでに世界各地の紛争では「AI兵器」が実戦投入されており、その法規制をめぐって「規制積極派」と「規制消極派」の国際論争が始まっている。専門家によると、今年の秋以降の国際会議が議論の“山場”だという。

 

殺人AI兵器が世界で初めて使用された?

 今年6月に、AI(人工知能)搭載の無人兵器がヒトの意思を介さず自律的にヒトを初めて殺傷したのではないか、という衝撃的なニュースが世界を席巻した。その記事の元は、今年3月に公表されたリビア内戦に関する国連安全保障理事会の専門家パネル報告書であった。それによれば、昨年3月に反政府軍が「STM社製のカルグ2やその他の滞空型兵器といった無人戦闘機または自律型致死兵器システムにより追跡され、遠隔から攻撃された。自律型致死兵器は、オペレーターと兵器との間でデータ接続を必要とせず標的を攻撃するようにプログラムされていた」という。

カテゴリ: 政治 軍事・防衛
フォーサイト最新記事のお知らせを受け取れます。
この記事をSNSにシェアする
執筆者プロフィール
岩本誠吾 京都産業大学法学部教授(国際法)。1956年生まれ、神戸大学大学院法学研究科博士後期課程単位取得退学。軍事・安全保障関連の国際法を研究。共著に『国際紛争と国際法』ほか。
フォーサイトのお申し込み
  • 24時間
  • 1週間
  • f
back to top