locom2 diary

少数意見こそが真実を伝えている。個性派揃いの海外ブロガーたちの記事を紹介。

近未来の戦争 3/3⚡️ ダヴォル・スロボダノビッチ・ブヤチッチ

Wars of the Near Future — Strategic Culture

ダヴォル・スロボダノビッチ・ブヤチッチ著:15/08/2023

Image from Gyazo

将来の勝利の鍵は、軍事と民間の両方ですでにエンジニアとプログラマーの手に握られています。

qrude.hateblo.jp

qrude.hateblo.jp

第三部

私たちがこれまで知っている将軍たち、例えばジューコフ元帥や、そのはるか昔、一度も戦いに敗れなかった栄光のロシア軍指導者スヴォーロフのようなカリスマ的指揮官や古典的な軍事戦略・戦術の達人たちも、早々に引退しなければならなくなるだろう。このような歴史上の巨人たちの優れた知性、知識、経験は、もはやAIの能力を凌駕することはできないだろう。AIはリアルタイムで戦場のデータにアクセスし、それに基づいて適切で柔軟性が高く、急速に変化する戦略・戦術計画を立案し、ロボット軍にほぼ完璧な指示を出すだろう。近未来の将軍は、軍事技術、戦術、戦略の目利きであると同時に、プログラマーやエンジニアでなければならない。彼らはエンジニア、開発者、技術者、オペレーターのチームを率い、ロボット軍を直接制御するコンピューターシステムや人工知能を監督することになる。もちろん、前線と敵の後方からの情報データが信頼に足るものであることが前提だが、実際、人工知能が適切に使用されるためには、それが常に最も重要である。しかし、戦場の霧が完全に戦場を覆っている場合でも、シミュレーションでは敵の戦力に関する入力データを意図的に誇張し、同時に友軍の戦力を人為的に控えめにすることができるため、AIは最悪のシナリオであっても戦略的・戦術的な必勝策を見出すことができる。

現在最も強力な2つのチェス・プログラムは、複雑な数学的アルゴリズムを使用する古典的なコンピューター・プログラムと、自ら学習し改良を加える人工知能の違いがどれほど大きいかを示す良い説明となる。また、戦略的・戦術的な問題を解くことに関しては、コンピューターがすでに人間より優れていることを示す非常に良い例証でもある。1997年、当時チェスの古典的世界チャンピオンだったガルリ・カスパロフが、IBMの改良型チェスコンピューター「ディープ・ブルー」との6番勝負に敗れたときは、世界的なセンセーションとなった。その後現在に至るまで、家庭用コンピュータをはじめとするコンピュータ技術の進歩により、チェス専用コンピュータの開発は中止され、代わりにチェス・ソフトウェアが開発されてきた。Stockfishは、2008年に最初のリリースが公開された、強力で完全に無料のオープンソースのチェスエンジンである。このソフトウェアは、高度な数学的アルゴリズムと巨大なデータベースを使用しており、チェスで人間がこれに勝つことは絶対に不可能である。それは、今日の最高のチェス・プレイヤーでさえ絶対に不可能なことである。しかし、現在2番目に強力なプログラムであるAlphaZeroは、まったく異なる原理で動いている。その生みの親であるディープマインド社は、高度な人工知能を利用したソフトウェアとしてAlphaZeroを開発した。2017年12月、その誕生当初、AlphaZeroはチェスのルールしか知らず、自らの過ちから学び最善の解決策を見つけるために、自分自身と対戦することで古代のゲームをプレイすることを学んだ。Stockfishとは異なり、AlphaZeroはチェスのオープニングブックや、グランドマスターやインターネットプレーヤーがプレイしたチェスの対局ファイルを利用することはできなかった。AlphaZeroはニューラルネットワークを使用している。ニューラルネットワークは、人間の脳に似た方法でデータを処理するようコンピューターに教えるAIの手法である。AlphaZeroは、自分自身と対戦することによってのみニューラルネットワークを訓練した。この種の機械学習ディープラーニングと呼ばれ、高度な人工知能を数学的アルゴリズムに基づく古典的なソフトウェアと区別する重要なディテールである。わずか数日の学習で、AlphaZeroは当時最強のStockfishの亜種を上回り、今日まで続く偉大なライバル関係が始まった。AlphaZeroは現時点でも優位に立っている。

軍事目的で使用される人工知能は、個々の無人戦闘車やロボットの管理だけでなく、完全なロボット軍とその戦略・戦術の管理にも使用される。戦闘ロボットは独自の人工知能を持ち、常に学習して戦闘技術を向上させることができるようになるだろう。最も重要なのは、経験を共有できることだ。ある戦闘ロボットが実戦で学んだことは、自動的に他のすべてのロボットが使える経験となる。アルファゼロと同様、人工知能の軍事戦略や戦術は、数え切れないほどの果てしないシミュレーションの中で完成されていくが、最も貴重な経験は実戦で得られる。これらの経験は、既存のシミュレーション・プログラムを即座に、そして継続的に修正し、可能な限り現実的なものにするフィードバック・ループを生み出すだろう。この学習と改善のプロセスは終わりなく続くだろう。間違いなく、軍事用人工知能は、ストックフィッシュのように、戦場や実戦から得た経験を持つ数学的アルゴリズムと膨大なデータベースを使用することになるだろう。しかし、強力なコンピューター・マシンが、できるだけうまくチェスをするためにアルファゼロが行っているのと同じように、自分自身と戦うことによって仮想戦争を練習する、終わりのないシミュレーションを通じて、ディープラーニングニューラルネットワークも使用することになるだろう。

チェスのグランドマスターたちがどんなに努力しても、アルファゼロが指した一見奇妙で見たこともないようなチェスのオープニングを理解できないのと同じように、チェス理論では最近まで、すぐに敗北を招くだけだとされていた。しかし、ロシアの戦略・戦術の有効性を疑うことはできない。ウクライナ軍は10倍以上の損害を被っているが、これは実際には非常に表面的な見積もりである。キエフNATO軍政にとって、現実はもっと悪い。ロシアの情報源を完全に無視し、独立・中立の情報源、この場合はトルコの新聞『Hurdes Haber』の報道に頼ることにしても、次のような結論に達する:

1.) キエフ支配下にある軍隊の人的損失は、ロシアのそれの8.5倍である。

2.) 捕虜となったウクライナ軍兵士の数は、捕虜となったロシア軍兵士の数の53倍という驚くべき数字である。

3.) 破壊されたウクライナの戦車と装甲車の数は、同じ軍備におけるロシアの損失の7倍である。

4.) ウクライナ軍が失った戦闘機の数はロシア軍の13倍、ヘリコプターの数はほぼ4倍...。

この記事の主題ではないが、ウクライナの壊滅的な損失のリストは長い。西側の主流メディアは、モサドからの情報源に言及したトルコの新聞の記事を急いで否定したが、ウルスラ・フォン・デア・ライエンは昨年12月末、同盟国や同僚を驚かせたが、彼女が機密情報だと気づかなかった欧州連合の公式データを公開し、ウクライナの軍事的損失は死者10万人以上だと国民に発表した。これは、今年1月のイスラエル情報機関のデータに基づくハーデス・ハーバーの15万7000人のウクライナ軍兵士の死者という推定にやや一致する。つまり、NATOとワシントンに支配されたメディアがこの件について何を書こうとも、ロシア軍はウクライナの大砲の餌を粉砕する巨大な工場であることが証明されたのだ。人工知能と戦場シミュレーションが、極めて異例だが残酷なほど効果的なロシアの戦略の背後にあるのかどうかは、10億ルーブル単位の問題だ。その昔、ロシアの敵は、残酷なロシアの冬の象徴である恐ろしいロシアの将軍フロストを恐れていた。今日、彼らはもっと恐ろしいロシアの将軍AIに打ち負かされ、敗北しているのだろうか?

しかし、遠い未来であっても、生身の兵士の仕事はまだたくさんあるかもしれない。先端技術が発達し、軍隊が完全にロボット化されても、地上での古き良き兵士の必要性が必然的になくなるわけではない。戦闘のある瞬間、ロボットやドローンが人口密集地域で敵対勢力を排除し、その制圧を確立し、前線が十分に離れていれば、古典的な歩兵部隊が都市、町、村に入って安全を確保することができる。その理由は主に、戦闘ロボットが必ずしも優れた(人工的な)PRセンスも持つように設計される必要はないという事実にある。そのため、未来の兵士はおそらく警察的な役割を果たすことになるだろうし、特に敵から都市を解放するためであれば、殺人ロボットの恐ろしい鳴動の後では、制服を着た人間の顔が一般的な安堵感をもたらすだろう。しかし、未来の兵士のほとんどは、実際にはエンジニア、プログラマー、技術者、そして機械を監督し、その円滑な運用を保証するオペレーターになるだろう。これは遠い未来の話なので、すぐ目の前にある時代、軍隊の完全なロボット化への移行期には、軍隊の中で最も大規模な部門のひとつがドローン操縦士になるだろう。彼らの大きな喜びのために、我々は非常にエキサイティングで、同様に中毒性のコンピュータゲームで、できるだけ効率的に軍務とドローン戦争のために若者を準備することができます。ごく近い将来、ミリタリースタイルのコンピューターゲームが大好きな子供たちが、最凶の兵士になるかもしれないのだ。

このことは、将来の戦争で人間の犠牲が最小限に抑えられることを意味するのだろうか?残念ながら、それはAIのコードを書くプログラマーに命令を下す人間次第である。ロボット軍団は確実に、多くの人がいるであろう司令部や通信センターを攻撃し、破壊するだろうから、やはり軍事的な人的被害は避けられないだろう。これらのセンターが大都市にある場合、民間人の犠牲も避けられないだろう。民間人が大量破壊兵器によって直接かつ意図的に標的にされるか、あるいは通常兵器による大量爆撃などによって標的にされるかは、軍司令官や開発者の道徳基準にかかっている。今日、多くの人が、アメリカのSF映画ターミネーター』シリーズで描かれているように、軍事用人工知能が何らかの形で制御不能になり、全人類を絶滅させ始める可能性を心配している。このような事態は、人間の重大なプログラミング・ミスによってのみ起こりうることであり、もちろん使用前には細心の注意と徹底的なテストが必要である。幸いなことに、次のような話はシミュレーションに過ぎなかった。今年6月初め、米空軍がロンドンで行ったシミュレーションで、人工知能を搭載したドローンが操縦者のタッカー・ハミルトン大佐の殺害を決定したというニュースが世界中に広まった。これはハミルトン大佐自身によって報告されたもので、AIは戦闘任務を成功させることで、できるだけ多くの報酬ポイントを得ようとするようにプログラムされていると説明した。ハミルトンがAIに脅威となりうる目標を攻撃しないよう命じたところ、AIはオペレーターがポイント獲得を妨げていると判断し、模擬爆撃でAIを "殺した"。AIドローンは、オペレーターを殺すと多くのポイントを失うと説明された後、次に潜在的な脅威を攻撃しないよう命令されたとき、ハミルトンがドローンに指示を送るために使用していた通信タワーを「破壊」し、これ以上命令に注意を払う必要がないようにした。このニュースは後に否定されたが、特に説得力はなかった。シミュレーションではなく、単なる "実験 "だったと説明されたのだ。どんなプログラマーでも、AIは人間が許す限り、現場での意思決定を自律的に行うものだと言うだろう。要するに、もしAIに、直接的な脅威をもたらさない友軍や民間人を攻撃するなという明確な指示が与えられれば、AIは確かにそうするだろう。しかし、例えば民間人が脅威となる場合であっても、必ず同じことをするだろう。いずれにせよ、責任はソフトウェア開発者にあり、前述のロンドンでの「実験」はプログラミング・エラーによってのみ失敗したのである。

人工知能はすでにサイバー戦争、特殊心理作戦、プロパガンダに積極的に応用されており、この傾向は間違いなく深まり、これらの技術を完璧なものにしていくと予想できる。残念ながら、コンピューターグラフィックスと人工知能のおかげで、嘘と真実を見分けることはますます難しくなっており、近い将来には事実上不可能になるだろう。機械には人間の限界や感情的な弱点がないため、AIはプロパガンダ・キャンペーンや特殊心理作戦、サイバー戦争作戦を、現在の人間よりもはるかにうまく行うことができるようになり、同時に、はるかに生産的で文字通り疲れを知らない。今日でも、例えば、長く死亡したとされるウクライナの将軍の新しいビデオや写真の背後にコンピューター技術があることを認識するのは比較的容易である。しかし、人工知能とフィルム技術の進歩のおかげで、殺された敵の将軍たちは死後長い年月を経て楽観的なプレスリリースを発表することができるようになり、そのような詐欺の企てを認識することを使命とする競合する人工知能でさえも、欺瞞が見破れないほど完璧なものとなるだろう。

そう遠くない将来、人工知能は新たな戦闘用ドローンやロボットの独自設計に使われ始めるかもしれない。この仕事も、人間よりも機械の方がはるかにうまくこなすだろう。こうして機械は、戦争用の機械だけでなく、自社生産用の機械や、もちろん民間用の機械も含め、より完璧な機械をどんどん生み出していくだろう。私たちが本当に恐れなければならないのは、プログラマーが既存の人工知能コードを独自に改良したり、新しいオリジナルの人工知能コードを書いたりすることを機械に許してしまうことだ。人々がこのような冒涜的な忌まわしい行為を許す動機として考えられるのは、まさに、ますます効率的なロボット軍隊の開発に向けた執拗な競争かもしれない。もしそのような悪事が許されるなら、タッカー・ハミルトン大佐を "殺した "インテリジェント・ドローンのような機械が、人間はもはや人間を必要としないと結論づけるかもしれない。したがって人類は、人工知能に新しい人工知能コードを書かせたり、既存の人工知能コードを改良させたりすることを、どんな犠牲を払っても決して許してはならない。

近年、欧米の政治家、テクノロジー専門家、科学者、アナリスト、政治家たちは、人工知能が人類にもたらす危険性について、ほとんどパニック的に警告している。彼らが私たちを説得しようとしているように、本当に深い道徳的動機からそうしているのだろうか?今年4月初め、ジョー・バイデン米大統領は、技術・科学分野のアドバイザーとの会合で、人工知能アメリカ社会、経済、国家安全保障にもたらしうるリスクについて警告した。ヘンリー・キッシンジャーもまた、人工知能の危険性についてしばしば警告を発している影響力のある人物の一人であり、今年の春にも何度かインタビューに答えている。このますますホットになっている話題は、先月アメリカ議会でも取り上げられ、公聴会が開催され、アメリカを代表する人工知能の専門家たちが意見を述べた。アメリカの政治家や専門家の間では、AIは核兵器と同等か、それ以上の破壊力を持つ技術だというのが一般的な意見だ。このような比較は決して偶然ではない。ワシントンは、ロシアと中国が人工知能と軍事用ロボットの開発で大きな進歩を遂げ、アメリカがこの新たな軍拡競争でさらに遅れをとっていることを認識している。アメリカは何十年もの間、第三世界発展途上国を恐怖に陥れてきたため、ロシアや中国がこれらの先進技術をイラン、シリア、北朝鮮、その他のアジア、アフリカ、ラテンアメリカ諸国といった国々と共有するかもしれないという恐怖は非常に大きく、集団的な西側諸国は間違いなく近いうちに、軍事目的での人工知能の使用について、何らかの国際的な管理と制限を提案するだろう。

彼らにとって残念なことに、ロシアのプーチン大統領は数年前、2017年9月にヤロスラブリで行われたロシアの学生たちとの会合で、人工知能に関する自身の意見を公然と明確に示した: 「人工知能はロシアだけでなく、全人類の未来だ。大きなチャンスであると同時に、予測困難な脅威でもある。この分野のリーダーになる者は、世界の支配者になるだろう。" したがって、未来の戦争は、テクノロジー人工知能の壮大な衝突を完全に表現することになる。兵士の勇気や訓練はもはやあまり役に立たず、人々が祖国のために死ぬ必要もなくなる。より優れた技術を持っている方が勝つのだ。だからこそロシアは、AIや軍事用ロボットの開発を諦めないし、西側諸国がほぼ間違いなく押し付けようとしているこれらの分野での支配を決して受け入れないだろう。 誰かがそうプログラムするべきだと決めれば、そうなるかもしれない。未来の勝利への鍵は、軍民を問わず、すでにエンジニアやプログラマーの手の中にある。