3.AIの可能性と限界に関する人民解放軍の見解
(1)AIの危険性と限界
これまで見てきたように、『解放軍報』に掲載された多数の論稿を調査したところ、AIを効果的に適用する分野として状況認識、軍事意思決定、無人兵器、認知域作戦が指摘されている。次に、こうした分野への適用にあたり、AIの危険性と限界に関する『解放軍報』の論稿を概観する。
多くの論文が、AIの軍事利用の危険性について、以下のような指摘をしている35。無人兵器が制御を失い、人間の操作者の意図に反して行動する危険性がある。また、自律型無人兵器を用いることにより、意図しない先制攻撃のリスクが高まる。AIの学習データに偶発的または人為的な偏りがある場合、AIは誤作動を起こす危険性がある。さらに、AIが意思決定を行うことになれば、意図しない戦争のエスカレーションを招く恐れがある。こうしたことから、暴力的な紛争が頻発し、倫理や国際法に抵触する恐れもある。
大規模言語モデルの限界について論じた論稿もある36。大規模言語モデルの本質はディープラーニングであり、膨大かつ高品質の学習データを必要とし、リアルタイムで更新することはできない。大規模言語モデルは、膨大な学習データと強力な演算能力により、学習セットの確率分布に従って次の単語が何であるかを予測するものである。このため、学習データセットに含まれない軍事専門分野においては、ランダムな回答を行うことしかできない。さらに、敵対者が学習データを汚染するなど、悪意ある攻撃の被害を受ける危険性がある。
AIが学習データの質と量に依存することの問題点も指摘されている37。機械学習には大量のラベル付きデータが必要であるが、偵察活動や通信傍受など、軍事活動から得られるデータにはラベルが付いていない38。敵の欺瞞やカモフラージュにより、誤ったデータが混在するが、こうしたデータの正確性を検証することも困難である。さらに、複雑な戦場の環境においては、大量の異常データ、データの破損などが起こり得る39。不完全なデータを読み取ることは困難であり、AIの誤学習にもつながる。
AIが人間のように意識を持たず、国際法を理解せず、倫理観や道徳観、共感を持たないことの問題点も指摘されている。複雑な戦場の環境において、システムが制御不能に陥り、罪のない人々を無差別に殺害する恐れもある。このため、AIがもたらす法的、倫理的問題に注意を払い、意思決定の「ループ」の中に人間を介在させ、その行動を規制すべきであるという主張もある40。
『解放軍報』の論稿は、現在のコンピューター技術においてAIの発展には限界があり、技術的シンギュラリティが到来するまでは、AIは人間の知性に近づくことはできても超えることはできないと指摘している。このため、当面は人間が戦場の最高の支配者であり続ける41。すなわち、戦争の勝敗においては、常に人間が決定的な要因であり続けるのである42。
(2)AIと「戦場の霧」
『解放軍報』の多くの論稿が、AIと「戦場の霧」との関係性について論じている。
「フォーサイト」は、月額800円のコンテンツ配信サイトです。簡単なお手続きで、サイト内のすべての記事を読むことができます。