paint-brush
आधुनिक युद्ध में एआई की नैतिकता: नैतिक जवाबदेही के साथ नवाचार का संतुलनद्वारा@nimit
12,710 रीडिंग
12,710 रीडिंग

आधुनिक युद्ध में एआई की नैतिकता: नैतिक जवाबदेही के साथ नवाचार का संतुलन

द्वारा Nimit6m2024/04/06
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

यह लेख युद्ध में एआई के उपयोग से उत्पन्न नैतिक दुविधाओं पर गहराई से चर्चा करता है, स्वायत्त हथियार प्रणालियों के निहितार्थों और सैन्य रणनीतियों पर उनके प्रभाव की जांच करता है। यह मशीनों को जीवन-मृत्यु के निर्णय सौंपने की नैतिक चिंताओं और न्यायपूर्ण युद्ध सिद्धांत के सिद्धांतों का पालन करने की चुनौतियों के विरुद्ध बढ़ी हुई सटीकता और कम मानवीय हताहतों के लाभों का मूल्यांकन करता है। यह लेख एआई-संचालित सैन्य अनुप्रयोगों में विनियमन और जवाबदेही के लिए अंतर्राष्ट्रीय प्रयासों पर भी चर्चा करता है।
featured image - आधुनिक युद्ध में एआई की नैतिकता: नैतिक जवाबदेही के साथ नवाचार का संतुलन
Nimit HackerNoon profile picture
0-item

आर्टिफिशियल इंटेलिजेंस (AI ) जीवन के कई क्षेत्रों में एक परिवर्तनकारी शक्ति के रूप में विकसित हो रहा है, जो पहले से ही उद्योगों में क्रांति लाने और हमारे जीने और काम करने के तरीके को नया आकार देने लगा है। युद्ध में AI के विषय पर सरकारों, नीति निर्माताओं और अंतर्राष्ट्रीय संगठनों को अधिक ध्यान देने की आवश्यकता होगी। इसका एक बड़ा हिस्सा स्वायत्त हथियार प्रणालियों (AWS) के विकास में महत्वपूर्ण प्रगति के कारण है, जो युद्ध के मैदान पर स्वतंत्र रूप से और मानव पर्यवेक्षण के बिना काम करने के लिए एल्गोरिदम का उपयोग करते हैं। अधिक व्यापक रूप से, AI अपने कई रूपों में रोबोटिक्स और हथियारों से लेकर खुफिया जानकारी जुटाने और निर्णय लेने तक की सैन्य गतिविधियों की एक श्रृंखला को बढ़ाने की क्षमता रखता है।


संभावित अनुप्रयोगों की इतनी विविधता के साथ नैतिक दुविधाओं का एक अनूठा समूह भी आता है। युद्ध में एआई के लाभ सटीकता में वृद्धि, मानव हताहतों में कमी, और यहां तक कि परमाणु युद्ध के खतरे के समान सशस्त्र संघर्ष में प्रवेश करने के खिलाफ निरोध हैं। हालांकि, इसका मतलब होगा मशीनों को जानबूझकर जीवन-मृत्यु के निर्णय लेने की क्षमता देना, जवाबदेही की रेखाओं को धुंधला करना, और संभवतः युद्ध में नैतिकता के मूल सिद्धांतों के खिलाफ जाना।


युद्ध में एआई का संक्षिप्त अवलोकन

जैसा कि स्टॉकहोम इंटरनेशनल पीस रिसर्च इंस्टीट्यूट ने रेखांकित किया है, एआई सैन्य रणनीतियों और बजट का एक महत्वपूर्ण हिस्सा बन गया है, जो व्यापक 'हथियारों की दौड़' में योगदान देता है [1]। परमाणु और परमाणु खतरों की तरह, भूराजनीति को प्रौद्योगिकी के निरंतर हथियारीकरण की नैतिकता पर सवाल उठाना चाहिए। कुछ लोगों का मानना है कि ये प्रगति अंततः विश्व राजनीति पर हावी होने वाली शून्य-योग सोच को जन्म देगी। यह तर्क नया नहीं है; अल्फ्रेड नोबेल को उम्मीद थी कि डायनामाइट की विनाशकारी शक्ति सभी युद्धों को समाप्त कर देगी [2]।


युद्ध तकनीक में एआई को पहले ही शामिल किया जा चुका है, जैसे कि ड्रोन झुंड, गाइडेड मिसाइल और लॉजिस्टिक विश्लेषण। स्वायत्त प्रणालियों को लंबे समय तक रक्षात्मक हथियारों में शामिल किया गया है, जैसे कि एंटीव्हीकल और एंटीपर्सनल माइंस। भविष्य के विकास स्वायत्तता के बढ़ते स्तरों की आकांक्षा रखते रहेंगे। अमेरिका एआई बॉट्स का परीक्षण कर रहा है जो एफ-16 फाइटर जेट के संशोधित संस्करण को स्वयं उड़ा सकते हैं; रूस स्वायत्त टैंकों का परीक्षण कर रहा है; और चीन भी अपने स्वयं के एआई-संचालित हथियार विकसित कर रहा है[3]।


इसका लक्ष्य युद्ध के मैदानों को मशीनीकृत और स्वचालित बनाना जारी रखते हुए मानव जीवन की रक्षा करना है। न्यूक्लियर थ्रेट इनिशिएटिव के वरिष्ठ सलाहकार डगलस शॉ ने कहा, "मैं आसानी से एक ऐसे भविष्य की कल्पना कर सकता हूँ जिसमें ड्रोन सशस्त्र बलों में लोगों की संख्या से काफी अधिक होंगे[3]।" इसलिए, सैनिकों को ज़मीन पर तैनात करने के बजाय हमने उन्हें विमानों में बिठाकर और मिसाइलों से लैस करके उनकी जान बचाई। अब एआई के साथ, सेनाएँ अपने बलों से और भी अधिक मानव जीवन को बचाने की उम्मीद करती हैं।


युद्ध में एआई के नैतिक निहितार्थ

अब तक तो यह बहुत बढ़िया लग रहा है। ड्रोन को निर्देशित करने के लिए AI का उपयोग करके जीवन बचाएँ। मिसाइलों को लॉन्च करने के लिए AI का उपयोग करके जीवन बचाएँ। युद्ध में इस तकनीकी उछाल और पिछले नवाचारों के बीच का अंतर यह है कि निर्णय लेने में मानवीय इनपुट की कमी है। AWS और घातक स्वायत्त हथियार प्रणालियों (LAWS) के साथ, हम एक इंसान को मारने की शक्ति एक ऐसे एल्गोरिदम को सौंप रहे हैं जिसमें कोई सहज मानवता नहीं है।


यहां कई नैतिक, नैतिक और कानूनी मुद्दे उठते हैं।


क्या यह उचित है कि युद्ध में किसी दूसरे व्यक्ति की मौजूदगी के बिना किसी व्यक्ति की जान ले ली जाए? क्या LAWS में किसी एल्गोरिदम के प्रोग्रामर को अपने देश का प्रतिनिधित्व करने में लड़ाकू पायलट के समान जिम्मेदारी है, और/या दुश्मन की जान लेने में योगदान देने का समान अधिकार है?


स्वायत्त वाहनों[4] से जुड़ी नैतिक दुविधाओं की तरह, क्या जीवन-मृत्यु के फ़ैसलों को AI-संचालित एल्गोरिदम को सौंपना नैतिक रूप से उचित है? तकनीकी दृष्टिकोण से, यह आंशिक रूप से AWS की प्रोग्रामिंग की पारदर्शिता पर निर्भर करेगा: इन मॉडलों में प्रशिक्षण, उपयोग किए गए डेटासेट, कोडित प्राथमिकताएँ और पूर्वाग्रह जैसी त्रुटियाँ। भले ही हम सटीकता और पारदर्शिता के पर्याप्त स्तर पर पहुँच जाएँ, क्या AWS और LAWS को युद्ध में नैतिक माना जाना चाहिए?


न्यायपूर्ण युद्ध सिद्धांत के नैतिक निहितार्थ

न्यायपूर्ण युद्ध सिद्धांत, जिसका श्रेय 13वीं शताब्दी में सेंट ऑगस्टीन और थॉमस एक्विनास को दिया जाता है[5], सशस्त्र संघर्ष में युद्ध की नैतिकता और नैतिक निर्णय लेने का मूल्यांकन करता है। जूस एड बेलम (युद्ध का न्याय) और जूस इन बेलो (युद्ध में न्याय) के लिए दिशा-निर्देशों में, सबसे उल्लेखनीय विचार ये हैं:


  • आनुपातिकता: बल का प्रयोग, प्राप्त किये जाने वाले उद्देश्य के समानुपातिक होना चाहिए तथा प्रत्याशित लाभ की तुलना में अत्यधिक हानि या कष्ट नहीं पहुंचाना चाहिए।
  • भेदभाव: इसे गैर-लड़ाकू प्रतिरक्षा के रूप में भी जाना जाता है, इस सिद्धांत के तहत लड़ाकों को लड़ाकों और गैर-लड़ाकों के बीच अंतर करना होता है, तथा केवल पूर्व को ही लक्ष्य बनाना होता है, जबकि बाद वाले को होने वाले नुकसान को न्यूनतम करना होता है।


यह तर्क दिया जा सकता है कि AI-संचालित हथियारों और LAWS का उपयोग इन सम्मेलनों के पालन की गारंटी नहीं देता है।


आनुपातिक रूप से, AI समर्थित हथियार पहले से कहीं ज़्यादा तेज़ी, शक्ति और सटीकता के साथ बल प्रदान करने की क्षमता रखते होंगे। क्या बल का यह स्तर आवश्यक रूप से उत्पन्न खतरे/सैन्य उद्देश्य से मेल खाएगा, खासकर अगर इसका इस्तेमाल कम तकनीकी रूप से उन्नत हथियारों वाले देश के खिलाफ़ किया जाए? इसी तरह, अगर LAWS को गलत जानकारी दी जाती है, या भ्रम होता है और गलत भविष्यवाणी करता है, तो क्या होगा? इससे अनावश्यक सैन्य बल और असंगत कार्रवाइयों का गठन और निष्पादन हो सकता है।


भेदभाव के मामले में, ये तकनीकें 100% सटीक नहीं हैं। दुश्मन सेना पर मिसाइल दागते समय, अगर चेहरे की पहचान[6] तकनीकें आम नागरिकों और लड़ाकों के बीच अंतर नहीं कर पाती हैं, तो क्या होगा? यह वैध सैन्य लक्ष्यों और निर्दोष दर्शकों के बीच नैतिक अंतर को कमज़ोर कर देगा।


मामले का अध्ययन

संयुक्त राष्ट्र के विशेषज्ञों के एक पैनल ने 2020 में लीबिया में LAWS - STM कारगु-2 - के संभावित उपयोग की रिपोर्ट की, जिसे तुर्की सेना ने हफ़्तार से संबद्ध बलों (HAF) के खिलाफ़ तैनात किया था [7]। इसे “ऑपरेटर और गोला-बारूद के बीच डेटा कनेक्टिविटी की आवश्यकता के बिना लक्ष्यों पर हमला करने के लिए प्रोग्राम किया गया” [8] के रूप में वर्णित किया गया था, ड्रोन इकाइयों को अंततः इलेक्ट्रॉनिक जैमिंग द्वारा बेअसर कर दिया गया था। हालाँकि इस रिमोट एयर तकनीक की भागीदारी ने उस स्थिति को बदल दिया जो पहले “एक कम तीव्रता, कम तकनीक वाला संघर्ष था जिसमें हताहतों से बचना और बल सुरक्षा दोनों पक्षों के लिए प्राथमिकता थी” [7]।


महत्वपूर्ण हताहतों का कारण बनने के बावजूद, यह स्पष्ट नहीं है कि मानव रहित हमलावर ड्रोनों ने कोई घातक परिणाम दिया या नहीं[8]। फिर भी, यह लड़ाकू हवाई वाहनों और ड्रोनों के अनियमित, मानव रहित उपयोग के मुद्दों को उजागर करता है।


एचएएफ इकाइयों को इस तरह के हमले से बचाव के लिए प्रशिक्षित नहीं किया गया था, उन्हें हवाई हमलों (जो ड्रोन के ऑफ़लाइन होने के बावजूद हुए) से कोई सुरक्षा नहीं थी, और पीछे हटने पर भी उन्हें एलएडब्ल्यूएस द्वारा परेशान किया जाता रहा। यह अकेले ही आनुपातिकता के सिद्धांत का उल्लंघन करना शुरू कर देता है, और इससे भी अधिक जब यह विचार किया जाता है कि एसटीएम कारगु-2 ने संघर्ष की गतिशीलता को बदल दिया। रिपोर्टें यहाँ तक बताती हैं कि "संघर्ष में तुर्की द्वारा उन्नत सैन्य तकनीक की शुरूआत एक निर्णायक तत्व थी ... असमान युद्ध जिसके परिणामस्वरूप 2020 के दौरान पश्चिमी लीबिया में एचएएफ की हार हुई" [7]।


सैन्य अनुप्रयोगों में एआई का अंतर्राष्ट्रीय सहयोग और विनियमन

2018 से, संयुक्त राष्ट्र महासचिव एंटोनियो गुटेरेस ने कहा है कि कानून राजनीतिक और नैतिक रूप से अस्वीकार्य हैं[9]। शांति के लिए अपने 2023 के नए एजेंडे में, गुटेरेस ने इसे 2026 तक औपचारिक रूप देने और कार्रवाई करने का आह्वान किया है। इसके तहत, वह AWS के उपयोग पर पूर्ण प्रतिबंध लगाने का सुझाव देते हैं जो मानवीय निगरानी के बिना काम करता है और अंतरराष्ट्रीय कानून का पालन नहीं करता है, और अन्य सभी AWS का विनियमन करता है।


इस प्रकार का अंतर्राष्ट्रीय सहयोग और विनियमन उन नैतिक चिंताओं को दूर करने में मदद करने के लिए आवश्यक होगा जिन पर हमने चर्चा की है। अभी के लिए, मानवीय निगरानी के बिना AWS का उपयोग सबसे तात्कालिक मुद्दों का कारण बनेगा। मानवीय निर्णय-निर्माता की कमी जिम्मेदारी के मुद्दे पैदा करती है। कमांड की एक श्रृंखला के बिना, AI-संचालित प्रणाली की खराबी या सामान्य त्रुटि के लिए कौन जिम्मेदारी लेता है?


इसके अलावा, जवाबदेही की कमी भी होगी। खास तौर पर पारंपरिक युद्ध में जहां न्यायपूर्ण युद्ध सिद्धांत जैसे परिभाषित नैतिक सिद्धांत हैं, यहां स्वायत्त प्रणालियों द्वारा की गई कार्रवाइयों के लिए कोई दोषी एजेंट नहीं होगा।


अंत में, हालांकि सैन्य अनुप्रयोगों में एआई को तेजी से अपनाने के लाभ हैं, लेकिन इन प्रौद्योगिकियों का उपयोग किस प्रकार किया जाएगा, यह निर्धारित करेगा कि क्या यह एक आदर्श समाधान होगा या पहले से ही राजनीतिक रूप से अस्थिर हथियारों की दौड़ को और अधिक बढ़ाएगा।


इसलिए, एआई युद्ध में जवाबदेही सुनिश्चित करने के लिए अंतर्राष्ट्रीय, कानूनी रूप से बाध्यकारी ढांचे पर निरंतर चर्चा निकट भविष्य में एआई विनियमन के सबसे महत्वपूर्ण क्षेत्रों में से एक होगी।



संदर्भ

  1. नवाचार को हथियार बनाना: यूरोपीय संघ में कृत्रिम बुद्धिमत्ता-सक्षम सुरक्षा और रक्षा का मानचित्रण
  2. युद्ध और प्रौद्योगिकी - विदेश नीति अनुसंधान संस्थान
  3. एआई किस प्रकार युद्ध में क्रांति लाएगा
  4. नैतिक एआई और स्वायत्त वाहन: स्व-चालित कारों के युग में नैतिक सिद्धांतों की वकालत | HackerNoon
  5. न्यायपूर्ण युद्ध सिद्धांत | इंटरनेट इनसाइक्लोपीडिया ऑफ फिलॉसफी
  6. चेहरे की पहचान तकनीक में पूर्वाग्रह: जानें कि चेहरे की पहचान प्रणाली किस तरह पूर्वाग्रह को बढ़ावा दे सकती है | HackerNoon
  7. लीबिया, घातक स्वायत्त हथियार प्रणालियों का उपयोग | युद्ध में कानून कैसे सुरक्षा प्रदान करता है? - ऑनलाइन केसबुक
  8. कारगु-2 स्वायत्त हमला ड्रोन: कानूनी और नैतिक आयाम - लिबर इंस्टीट्यूट वेस्ट प्वाइंट
  9. घातक स्वायत्त हथियार प्रणालियाँ (LAWS) – UNODA