Introduction
AI and the Military
How is AI being used in the military and defence?
Why is AI important to the military?
etc.
人間は地球上で最も支配的な種ですが、最も強く、最も速く、最も有毒で、最も耐久力のある種ではありません。私たちに優位性を与えるものは何でしょうか?
地球上で物理的に最強の動物と比較すると、ゴリラはためらうことなく私たちの脳を地面に叩きつけることができます。
私たちは最速の種ではありません。チーターのゆっくりとした夢遊病は、世界最速の人間よりも速いです。
私たちは最も有毒な種ではありません。カバはどの曜日でも、キングコブラよりも私たちに噛まれることを好むと思います。
私たちは最も耐久力のある種ですらない。ゴキブリは極度の放射線量に耐えることができます。
私たちには、興味深い組み込みの生物学的防御機能もありません。スカンクは尻尾を上げて捕食者に悪臭を放つ液体を噴射します。臭いは非常に強いので、捕食者が嘔吐する可能性があります。ヤマアラシには鋭い羽根があり、身を守るために使用できます。
人間は脆弱です。地球上の大多数の動物は、機会があれば簡単に私たちを殺すことができますが、それでも私たちは依然として支配的な種であり続けています。 「私たちが持っていて他の人が持っていないものは何ですか?」
単に私たちの脳です。
人間は、体の大きさに比べて動物界で最大の脳を持っています。これにより、インテリジェンス、問題解決、計画の面で大きな利点が得られます。
お互いに協力する能力もあります。これにより、狩猟、避難所の建設、捕食者から身を守るなどの共通の目標を達成するために協力することができます。
最後に、ツールを使用できるようになります。これにより、狩猟、採集、戦争において大きな利点が得られます。
ヘビは自分自身でより効率的な生活を決して創造しません。常にその毒で獲物を狩り、満足したら家に帰ります。それがヘビが知っている唯一の方法であり、その仕事をするために他のヘビを雇ってビジネスを始めることは決してできません。鳥には自分の巣を改善する方法を考える能力がないため、同じ基本設計を繰り返し使用するだけです。
私たちは知性を通じて、娯楽や食べ物などの利己的なニーズのために他の種を飼いならすことができます。私たちは動物の最も基本的な生物学的ニーズである食物を誘惑して動物を管理します。屠殺場の鶏はクリスマスまで餌を与えられることで試練に適応する。
私が言いたいのは、私たちを物理的にも精神的にも超える新しいものが生態系に参入したときに何が起こるかということです。私たちが他の動物を家畜化したのと同じように、彼らは人間を家畜化するでしょう。そして、これはAIでしょうか?
ところで、それはただのことです。私たちには言えません。
世界は、人工知能によって形成される新たな戦争の時代の瀬戸際にあります。公式には、それらは致死自律兵器システム (LAWS) と呼ばれていますが、批評家はそれらを殺人ロボットと呼んでいます。
AI 研究への最大の資金源の 1 つは、軍事利用のための新技術の開発を担当する米国国防総省の機関である国防高等研究プロジェクト局 ( DARPA ) からのものです。最近、インド政府は、AI を使用した新しい高度なアプリケーションやシステムを開発するための軍事資金を増額しました。
国連の報告書は、2020年にリビアで初めて自律型無人機が戦闘で使用された可能性があることを示唆している。報告書では、トルコ製のカルグ-2無人機が戦闘員を攻撃するために全自動モードで使用されたことが判明した。自律型ドローンはウクライナ戦争でも重要な役割を果たしており、ロシアとウクライナ両国はこれらの無人兵器を敵の兵士やインフラを標的に配備している。
人工知能は現代の戦争において重要な要素となるでしょう。その主な理由の 1 つは、人工知能が大量のデータをより効率的に処理できることです。
人工知能 (AI) は、軍事組織や防衛組織によってさまざまな方法で使用されています。戦争プラットフォームからサイバーセキュリティ、兵站と輸送、目標認識、戦場での医療、戦闘シミュレーション、訓練、治療まで。一般的なアプリケーションには次のようなものがあります。
軍事および防衛における AI の使用は重要な倫理的および道徳的な問題を引き起こし、現在進行中の公開討論の主題であることは注目に値します。
ロシアによるウクライナ侵攻のさなか、2022年3月24日、米軍はポーランドのジェシェフ・ヤシオンカ空港にMIM-104パトリオット地対空ミサイルシステム発射装置を配備した。これらのミサイルは、人間の介入なしに目標を識別、選択し、交戦することができます[ロイター/ストリンガー]
AI は軍事上の意思決定を特に容易にすることが約束されているため、軍事にとって重要となるでしょう。彼らは兵士を使わずに一部の戦場任務を遂行することができ、それによって死傷者のリスクを軽減し、軍隊の戦闘能力を向上させながら、革命的ではないにしても軍事システムの構造を根本的に修正することができた。
AI は、人間が意思決定を行う際に情報を提供したり、意思決定プロセス全体を引き継いだりすることで、意思決定を支援するために軍事で使用される可能性があります。通信が制限されている状況や、人智を超えたスピードで行動が起こるサイバー空間などで観察される可能性があります。これらの側面により、人工知能は防衛技術業界内で大きな期待を集めて熱烈なテーマとなっています。
AI は今日、偵察、兵站、さらには兵器システムを含むさまざまな軍事用途でますます使用されています。
たとえば、AI を搭載したドローンは、ターゲットを検索して特定したり、敵の位置や動きに関する情報を収集したりするために使用できます。 AI アルゴリズムを使用して、これらのドローンによって収集された膨大な量のデータを処理および分析することもできるため、軍は潜在的な脅威を迅速に特定して対応することができます。
AIは兵器システムでも研究開発されています。自律型致死兵器システム (LAWS) としても知られる自律型兵器は、人間の介入なしに標的を選択して攻撃できるシステムです。このような兵器の倫理的および法的影響については大きな議論があり、多くの国や国際機関が自律型兵器の禁止を求めています。法的枠組みや倫理的配慮にもかかわらず、一部の国ではそのようなシステムの研究開発が進行中です。
AIは物流とサプライチェーン管理の改善に活用されています。たとえば、AI アルゴリズムを使用して、軍事輸送隊のルートを最適化して燃料消費量と攻撃のリスクを軽減したり、機器の故障を予測してメンテナンスのスケジュールを設定したりできます。
特徴マップを使用して地雷を分析および特定し、無効化したり、地雷を運び去ったりできる地雷掃海ドローン ボットは、ドローンで使用されるものと似ています。
VR 状況に関する戦闘シミュレーションは、より現実的な戦闘状況に合わせて兵士を訓練するのに役立ちます。
環境を分析したり、特別な視覚を提供したり、暗視を考慮しながらより良い画像をシミュレートしたりするバイザー付きの戦闘用ヘルメット
発射されたミサイルの状況を分析することは、ゴミを狙うのではなく、衛星防衛グリッドシステムを使用して正しいミサイルを撃ち落とすことに似ています。
発射時に周囲をスキャンすることに基づいて、内部から爆発を引き起こすことができる画像分析ミサイル。
現在、軍事用途での AI の使用が増えていますが、その研究の多くはまだ研究開発段階にあり、将来 AI が軍事でどの程度使用されるかはまだ明らかになっていないことに注意することが重要です。
AI はあらゆるものの未来となり、戦争の未来となるでしょう。防衛関連の情報をますます処理し、そのようなデータをフィルタリングして最大の脅威を特定し、プログラムされたアルゴリズムに基づいて防衛の決定を下し、おそらくは戦闘ロボットを直接操作することになるでしょう。
軍事用途での人工知能 (AI) の使用は、リスクと利益の両方をもたらします。探検してみましょう…
自律型兵器:リスクの 1 つは、人間の介入なしに意思決定を行うことができる自律型兵器の開発です。これにより、事故、誤用、または非倫理的な行為の可能性についての懸念が生じます。ターミネーターのような自律型殺戮ロボットはおそらくすぐに実現するでしょうし、米国や中国のような先進軍がこの種のことに取り組んでいることは間違いありません。パイロットのいないドローンやロボットミサイルはすでに存在します。
人間の判断力の欠如: AI に大きく依存すると、人間の判断力の役割が低下する可能性があり、その結果、重要な決定が機械のみによって行われる可能性があります。
サイバー攻撃に対する脆弱性: AI システムはサイバー攻撃に対して脆弱である可能性があり、不正なアクセス、操作、または軍事作戦の中断につながる可能性があります。
紛争の激化:軍事用途での AI の使用は、各国がより高度で強力な AI テクノロジーの開発を競う軍拡競争につながる場合、紛争を激化させる可能性があります。
多くの専門家や人権団体にとって、こうした自律型兵器のリスクは、見落とされない技術的故障の可能性から、国際法違反、生死を決める感情のない機械に対する倫理的懸念に至るまで、潜在的な利点を上回っている。
人間の監視と AI 機能の間で適切なバランスを取ることは、軍事分野での責任ある倫理的な使用を確保するために重要です。
未来的であること: 人間が高レベルの意思決定のみを行う一方で、AI は潜在的なターゲットの識別と区別をより多く実行します。
米軍はあらゆる状況で利用できる人工知能の活用を積極的に推進している。現時点ではその可能性を最大限に活用できていませんが、悪意を持って使用すると恐ろしいほど強力になる可能性があります。
いずれにせよ、いつか人工知能が軍に取って代わるということは完全には考えられませんが、代わりに軍がこのテクノロジーをフル活用することになるでしょう。これを使用して戦場の死傷者を減らし、巻き添え被害のないドローン攻撃、無人戦車などのより正確な攻撃を実現します。
付け加えておきますが、アフリカと中東のいくつかの国は、完全自律型兵器システムの完全禁止を求めています。これらの国には、アルジェリア、ナミビア、ガーナ、ウガンダ、ジンバブエ、モロッコ、エジプト、ヨルダン、イラク、パレスチナが含まれます。南アフリカもこれらの武器に対する規制を求めているが、完全な禁止までは求めていない。
人工知能に関して私が唯一懸念しているのは、街を徘徊する殺人ロボットではなく、むしろ悪意のある目的を達成するためにこのテクノロジーを利用する悪者たちです。このようなことが起こることを許してはなりません。 AI は、善にも悪にも使用できる強力なツールです。 AI の潜在的なリスクを認識し、それらのリスクを軽減するための措置を講じることが重要です。