आर्टिफिशियल इंटेलिजेंस (AI ) जीवन के कई क्षेत्रों में एक परिवर्तनकारी शक्ति के रूप में विकसित हो रहा है, जो पहले से ही उद्योगों में क्रांति लाने और हमारे जीने और काम करने के तरीके को नया आकार देने लगा है। युद्ध में AI के विषय पर सरकारों, नीति निर्माताओं और अंतर्राष्ट्रीय संगठनों को अधिक ध्यान देने की आवश्यकता होगी। इसका एक बड़ा हिस्सा स्वायत्त हथियार प्रणालियों (AWS) के विकास में महत्वपूर्ण प्रगति के कारण है, जो युद्ध के मैदान पर स्वतंत्र रूप से और मानव पर्यवेक्षण के बिना काम करने के लिए एल्गोरिदम का उपयोग करते हैं। अधिक व्यापक रूप से, AI अपने कई रूपों में रोबोटिक्स और हथियारों से लेकर खुफिया जानकारी जुटाने और निर्णय लेने तक की सैन्य गतिविधियों की एक श्रृंखला को बढ़ाने की क्षमता रखता है।
संभावित अनुप्रयोगों की इतनी विविधता के साथ नैतिक दुविधाओं का एक अनूठा समूह भी आता है। युद्ध में एआई के लाभ सटीकता में वृद्धि, मानव हताहतों में कमी, और यहां तक कि परमाणु युद्ध के खतरे के समान सशस्त्र संघर्ष में प्रवेश करने के खिलाफ निरोध हैं। हालांकि, इसका मतलब होगा मशीनों को जानबूझकर जीवन-मृत्यु के निर्णय लेने की क्षमता देना, जवाबदेही की रेखाओं को धुंधला करना, और संभवतः युद्ध में नैतिकता के मूल सिद्धांतों के खिलाफ जाना।
जैसा कि स्टॉकहोम इंटरनेशनल पीस रिसर्च इंस्टीट्यूट ने रेखांकित किया है, एआई सैन्य रणनीतियों और बजट का एक महत्वपूर्ण हिस्सा बन गया है, जो व्यापक 'हथियारों की दौड़' में योगदान देता है [1]। परमाणु और परमाणु खतरों की तरह, भूराजनीति को प्रौद्योगिकी के निरंतर हथियारीकरण की नैतिकता पर सवाल उठाना चाहिए। कुछ लोगों का मानना है कि ये प्रगति अंततः विश्व राजनीति पर हावी होने वाली शून्य-योग सोच को जन्म देगी। यह तर्क नया नहीं है; अल्फ्रेड नोबेल को उम्मीद थी कि डायनामाइट की विनाशकारी शक्ति सभी युद्धों को समाप्त कर देगी [2]।
युद्ध तकनीक में एआई को पहले ही शामिल किया जा चुका है, जैसे कि ड्रोन झुंड, गाइडेड मिसाइल और लॉजिस्टिक विश्लेषण। स्वायत्त प्रणालियों को लंबे समय तक रक्षात्मक हथियारों में शामिल किया गया है, जैसे कि एंटीव्हीकल और एंटीपर्सनल माइंस। भविष्य के विकास स्वायत्तता के बढ़ते स्तरों की आकांक्षा रखते रहेंगे। अमेरिका एआई बॉट्स का परीक्षण कर रहा है जो एफ-16 फाइटर जेट के संशोधित संस्करण को स्वयं उड़ा सकते हैं; रूस स्वायत्त टैंकों का परीक्षण कर रहा है; और चीन भी अपने स्वयं के एआई-संचालित हथियार विकसित कर रहा है[3]।
इसका लक्ष्य युद्ध के मैदानों को मशीनीकृत और स्वचालित बनाना जारी रखते हुए मानव जीवन की रक्षा करना है। न्यूक्लियर थ्रेट इनिशिएटिव के वरिष्ठ सलाहकार डगलस शॉ ने कहा, "मैं आसानी से एक ऐसे भविष्य की कल्पना कर सकता हूँ जिसमें ड्रोन सशस्त्र बलों में लोगों की संख्या से काफी अधिक होंगे[3]।" इसलिए, सैनिकों को ज़मीन पर तैनात करने के बजाय हमने उन्हें विमानों में बिठाकर और मिसाइलों से लैस करके उनकी जान बचाई। अब एआई के साथ, सेनाएँ अपने बलों से और भी अधिक मानव जीवन को बचाने की उम्मीद करती हैं।
अब तक तो यह बहुत बढ़िया लग रहा है। ड्रोन को निर्देशित करने के लिए AI का उपयोग करके जीवन बचाएँ। मिसाइलों को लॉन्च करने के लिए AI का उपयोग करके जीवन बचाएँ। युद्ध में इस तकनीकी उछाल और पिछले नवाचारों के बीच का अंतर यह है कि निर्णय लेने में मानवीय इनपुट की कमी है। AWS और घातक स्वायत्त हथियार प्रणालियों (LAWS) के साथ, हम एक इंसान को मारने की शक्ति एक ऐसे एल्गोरिदम को सौंप रहे हैं जिसमें कोई सहज मानवता नहीं है।
यहां कई नैतिक, नैतिक और कानूनी मुद्दे उठते हैं।
क्या यह उचित है कि युद्ध में किसी दूसरे व्यक्ति की मौजूदगी के बिना किसी व्यक्ति की जान ले ली जाए? क्या LAWS में किसी एल्गोरिदम के प्रोग्रामर को अपने देश का प्रतिनिधित्व करने में लड़ाकू पायलट के समान जिम्मेदारी है, और/या दुश्मन की जान लेने में योगदान देने का समान अधिकार है?
स्वायत्त वाहनों[4] से जुड़ी नैतिक दुविधाओं की तरह, क्या जीवन-मृत्यु के फ़ैसलों को AI-संचालित एल्गोरिदम को सौंपना नैतिक रूप से उचित है? तकनीकी दृष्टिकोण से, यह आंशिक रूप से AWS की प्रोग्रामिंग की पारदर्शिता पर निर्भर करेगा: इन मॉडलों में प्रशिक्षण, उपयोग किए गए डेटासेट, कोडित प्राथमिकताएँ और पूर्वाग्रह जैसी त्रुटियाँ। भले ही हम सटीकता और पारदर्शिता के पर्याप्त स्तर पर पहुँच जाएँ, क्या AWS और LAWS को युद्ध में नैतिक माना जाना चाहिए?
न्यायपूर्ण युद्ध सिद्धांत, जिसका श्रेय 13वीं शताब्दी में सेंट ऑगस्टीन और थॉमस एक्विनास को दिया जाता है[5], सशस्त्र संघर्ष में युद्ध की नैतिकता और नैतिक निर्णय लेने का मूल्यांकन करता है। जूस एड बेलम (युद्ध का न्याय) और जूस इन बेलो (युद्ध में न्याय) के लिए दिशा-निर्देशों में, सबसे उल्लेखनीय विचार ये हैं:
यह तर्क दिया जा सकता है कि AI-संचालित हथियारों और LAWS का उपयोग इन सम्मेलनों के पालन की गारंटी नहीं देता है।
आनुपातिक रूप से, AI समर्थित हथियार पहले से कहीं ज़्यादा तेज़ी, शक्ति और सटीकता के साथ बल प्रदान करने की क्षमता रखते होंगे। क्या बल का यह स्तर आवश्यक रूप से उत्पन्न खतरे/सैन्य उद्देश्य से मेल खाएगा, खासकर अगर इसका इस्तेमाल कम तकनीकी रूप से उन्नत हथियारों वाले देश के खिलाफ़ किया जाए? इसी तरह, अगर LAWS को गलत जानकारी दी जाती है, या भ्रम होता है और गलत भविष्यवाणी करता है, तो क्या होगा? इससे अनावश्यक सैन्य बल और असंगत कार्रवाइयों का गठन और निष्पादन हो सकता है।
भेदभाव के मामले में, ये तकनीकें 100% सटीक नहीं हैं। दुश्मन सेना पर मिसाइल दागते समय, अगर चेहरे की पहचान[6] तकनीकें आम नागरिकों और लड़ाकों के बीच अंतर नहीं कर पाती हैं, तो क्या होगा? यह वैध सैन्य लक्ष्यों और निर्दोष दर्शकों के बीच नैतिक अंतर को कमज़ोर कर देगा।
संयुक्त राष्ट्र के विशेषज्ञों के एक पैनल ने 2020 में लीबिया में LAWS - STM कारगु-2 - के संभावित उपयोग की रिपोर्ट की, जिसे तुर्की सेना ने हफ़्तार से संबद्ध बलों (HAF) के खिलाफ़ तैनात किया था [7]। इसे “ऑपरेटर और गोला-बारूद के बीच डेटा कनेक्टिविटी की आवश्यकता के बिना लक्ष्यों पर हमला करने के लिए प्रोग्राम किया गया” [8] के रूप में वर्णित किया गया था, ड्रोन इकाइयों को अंततः इलेक्ट्रॉनिक जैमिंग द्वारा बेअसर कर दिया गया था। हालाँकि इस रिमोट एयर तकनीक की भागीदारी ने उस स्थिति को बदल दिया जो पहले “एक कम तीव्रता, कम तकनीक वाला संघर्ष था जिसमें हताहतों से बचना और बल सुरक्षा दोनों पक्षों के लिए प्राथमिकता थी” [7]।
महत्वपूर्ण हताहतों का कारण बनने के बावजूद, यह स्पष्ट नहीं है कि मानव रहित हमलावर ड्रोनों ने कोई घातक परिणाम दिया या नहीं[8]। फिर भी, यह लड़ाकू हवाई वाहनों और ड्रोनों के अनियमित, मानव रहित उपयोग के मुद्दों को उजागर करता है।
एचएएफ इकाइयों को इस तरह के हमले से बचाव के लिए प्रशिक्षित नहीं किया गया था, उन्हें हवाई हमलों (जो ड्रोन के ऑफ़लाइन होने के बावजूद हुए) से कोई सुरक्षा नहीं थी, और पीछे हटने पर भी उन्हें एलएडब्ल्यूएस द्वारा परेशान किया जाता रहा। यह अकेले ही आनुपातिकता के सिद्धांत का उल्लंघन करना शुरू कर देता है, और इससे भी अधिक जब यह विचार किया जाता है कि एसटीएम कारगु-2 ने संघर्ष की गतिशीलता को बदल दिया। रिपोर्टें यहाँ तक बताती हैं कि "संघर्ष में तुर्की द्वारा उन्नत सैन्य तकनीक की शुरूआत एक निर्णायक तत्व थी ... असमान युद्ध जिसके परिणामस्वरूप 2020 के दौरान पश्चिमी लीबिया में एचएएफ की हार हुई" [7]।
2018 से, संयुक्त राष्ट्र महासचिव एंटोनियो गुटेरेस ने कहा है कि कानून राजनीतिक और नैतिक रूप से अस्वीकार्य हैं[9]। शांति के लिए अपने 2023 के नए एजेंडे में, गुटेरेस ने इसे 2026 तक औपचारिक रूप देने और कार्रवाई करने का आह्वान किया है। इसके तहत, वह AWS के उपयोग पर पूर्ण प्रतिबंध लगाने का सुझाव देते हैं जो मानवीय निगरानी के बिना काम करता है और अंतरराष्ट्रीय कानून का पालन नहीं करता है, और अन्य सभी AWS का विनियमन करता है।
इस प्रकार का अंतर्राष्ट्रीय सहयोग और विनियमन उन नैतिक चिंताओं को दूर करने में मदद करने के लिए आवश्यक होगा जिन पर हमने चर्चा की है। अभी के लिए, मानवीय निगरानी के बिना AWS का उपयोग सबसे तात्कालिक मुद्दों का कारण बनेगा। मानवीय निर्णय-निर्माता की कमी जिम्मेदारी के मुद्दे पैदा करती है। कमांड की एक श्रृंखला के बिना, AI-संचालित प्रणाली की खराबी या सामान्य त्रुटि के लिए कौन जिम्मेदारी लेता है?
इसके अलावा, जवाबदेही की कमी भी होगी। खास तौर पर पारंपरिक युद्ध में जहां न्यायपूर्ण युद्ध सिद्धांत जैसे परिभाषित नैतिक सिद्धांत हैं, यहां स्वायत्त प्रणालियों द्वारा की गई कार्रवाइयों के लिए कोई दोषी एजेंट नहीं होगा।
अंत में, हालांकि सैन्य अनुप्रयोगों में एआई को तेजी से अपनाने के लाभ हैं, लेकिन इन प्रौद्योगिकियों का उपयोग किस प्रकार किया जाएगा, यह निर्धारित करेगा कि क्या यह एक आदर्श समाधान होगा या पहले से ही राजनीतिक रूप से अस्थिर हथियारों की दौड़ को और अधिक बढ़ाएगा।
इसलिए, एआई युद्ध में जवाबदेही सुनिश्चित करने के लिए अंतर्राष्ट्रीय, कानूनी रूप से बाध्यकारी ढांचे पर निरंतर चर्चा निकट भविष्य में एआई विनियमन के सबसे महत्वपूर्ण क्षेत्रों में से एक होगी।