[15日 ロイター] – 中国有数の軍事研究機関である北京理工大学は昨年10月、5000人以上の応募者から31人の高校生を選出した。
中国当局は、彼らが微視的なロボットからコンピューターウィルス、潜水艦、ドローン、戦車に至る新世代の人工知能(AI)兵器システムの設計を担うことを期待している。
コンピューターの性能向上と自己学習プログラムが、戦争と政治に新たな道筋を生み出す中で、こうした取り組みは、何が21世紀の軍拡競争を決定付けるのかを、鮮烈に思い起こさせる。
今や軍事領域において、戦略や倫理、政治的思考よりもテクノロジーが優先されつつあるのかもしれない。それだけでなく、コンピューターのハードウェアやソフトウェアを入手し、正しくプログラミングするのと同程度に、才能ある人材の争奪戦が重要性を増している、とも言えそうだ。
コンサルタント会社プライスウォーターハウスクーパース(PwC)は、AI関連製品や同システムの世界経済に対する寄与は2030年までに最大15兆7000億ドル(約1700兆円)に達すると試算。中国と米国がその先頭に立つ可能性が高いという。
とはいえ、各国政府がこの分野での出遅れを憂慮し、警戒する最大の理由は、それによって生じ得る軍事的な影響であり、未知のテクノロジーが新たな危険をもたらす可能性に各国は神経を尖らせている。
米国では、IT業界幹部が集まり米軍に技術的なアドバイスを提供する国防イノベーション諮問委員会に対し、防総省上層部は、戦争におけるAI活用を巡る倫理原則をまとめるよう求めている。
先月はフランスとカナダがそれぞれ、同様の問題について幅広く議論する国際委員会を創設すると発表した。
これまで西側諸国では、紛争における生死にかかわる判断は人間によって下されるべきであり、コンピューターやアルゴリズムは単にそうした判断を支援するだけにとどめる、との信念を守ってきた。
だが他の国々、特にロシアや中国は、違う道へ踏み出そうとしている。
昨年AI関連投資の倍増を発表したロシアは今月に入り、2019年半ばまでに新たなAI国家戦略の「ロードマップ」を策定すると発表した。
ロシア当局者は、サイバースペースでの優位と情報戦に欠かせない要素としてAIを捉えていると言明しており、同国のオンライン版「トロールファーム(ネットで故意に偽情報を拡散したり、荒し行為を行う集団)」は、すでにデマを流布するためにソーシャルメディアへの自動投稿を駆使しているとみられる。
中国政府はAI開発で、さらに先行していると見られており、すでに米国を凌駕している可能性もある、と一部の専門家は考えている。
優れたAIを実現するために肝要なのは、十分なコンピューター性能と学習素材となる大量のデータ、そしてシステムを機能させるための人材だと専門家は指摘する。世界で最も強力な専制国家であるロシアと中国は、国内では政府支配を維持するため、そして海外では敵を打倒するために、AIを駆使する能力と意志の双方を備えている。
すでに中国は、顔認証ソフトを含む大規模な自動監視システムを使って、特に北西部におけるイスラム系少数民族ウイグル族の反体制派を弾圧している。中国もロシアと同様、市民のコミュニケーションを監視することに対する疑念や自制は、西側諸国に比べて格段に弱い。技術改良が進むにつれ、こうした監視システムはさらに強力なものになっていくと思われる。
新たな技術とイノベーションを活用することにかけては、伝統的に独裁国家よりも、西側の民主主義諸国、特に米国の方が巧みだった。 だがAIに関しては、IT産業と米軍を連携させようとする連邦政府の取り組みは、順調とは程遠い状況にある。
米アルファベット(GOOGL.O)傘下のグーグルは6月、従業員からの要求に押され、国防総省との契約更新を見送った。多くの技術開発者は、自分たちがいずれ制御不能の殺人ロボットを作ることになりかねないという懸念から、国防プロジェクトへの関与に二の足を踏んでいる。
それでも米国とその同盟国は、独自の自動化兵器の研究や製造を進めている。
米マイクロソフト(MSFT.O)は10月、「強力な国防を実現するため」に、できる限り先進的なAIシステムを国防総省に納入する意志がある、とひっそりと表明した。
米空軍上層部は、「B2」ステルス爆撃機の後継機種として重要機密扱いとなっている次期長距離攻撃機について、有人でも無人でも運用可能になると述べている。西側各国の軍隊も、兵士をリスクにさらすことなく、よりたくさんの「汚く退屈、かつ危険な」戦場任務がこなせるよう、無人トラックなどの支援車両に対してさらに多くのリソースを投入している。
複数の無人機が自律的な制御を行うドローン編隊の利用が拡大していく中で、こうした力関係は、はるかに複雑なものになっていく。
ドローン対ドローンの戦闘に関しては、西側の政策担当者も無人システムに自力で判断させることについて、おおむね肯定的だ。
ただ、人命を奪う場合には、国防総省の方針として人間が意志決定のループに残ることが求められている。それがそれがますます困難になる可能性がある。敵国の自動化システムがそうした判断を人間よりもはるかに速いスピードで下すとなれば、なおさらだ。
2020年代前半には、中国科学者の手によって武装可能な無人の大型潜水艦が世界の海洋に展開され、南シナ海など領有権紛争の絶えない海域で敵対する部隊を標的にすることが予想されている。
こうした無人艦艇は、長期にわたって存在を秘匿したまま、非常に長い距離を航行できる可能性がある。中国は12月、無人水中グライダーの試作機が、過去最長となる141日間をかけて3619キロに及ぶ航海を達成したと公表した。
中国の研究者によれば、今のところ、こうした無人艦艇による攻撃を行うかどうかの決定はすべて人間の指揮官によって行われるが、今後もその方針が続くとは限らないという。
米国防総省は昨年1月、ロシアが核兵器搭載可能とみられる無人の大型原子力潜水艦を建設中だと報告した。ロシア、中国両政府はまた、無人ロボット戦車にも力を入れており、ロシアは最新型をシリアの戦場で試験運用している。
こうしたシステムが投入されれば、西側諸国の指揮官にとって、どのような紛争においても、戦場での標的決定が大変面倒になる。個々の車両や艦艇に人間が搭乗しているか不明瞭になるからだ。判断ミスによって戦争の開始や急激なエスカレートを招く可能性がある。
北京理工大学では31人の若者を選抜する際に、選考担当者は「戦う意欲」を重視したと言われている。
これほど未検証で、なおかつ破壊的な性質を秘めたテクノロジーに取り組む上で、選考基準として優先するには、非常に危険の大きな資質だった、という羽目に陥るかもしれない。
*筆者はロイターのコラムニスト。元ロイターの防衛担当記者で、現在はシンクタンク「Project for Study of the 21st Century(PS21)」を立ち上げ、理事を務める。
*本コラムは筆者の個人的見解に基づいて書かれています。(翻訳:エァクレーレン)