क्या आने वाले दिनों में जंग में भी सैनिकों की जगह रोबोट आमने-सामने होंगे?

Cover Story

ईरान की राजधानी तेहरान में वैज्ञानिक मोहसिन फ़ख़रीज़ादेह की गाड़ियों का क़ाफ़िला राजधानी के बाहरी इलाक़े से गुज़र रहा था. वो ईरान के सबसे वरिष्ठ परमाणु वैज्ञानिक माने जाते थे और सुरक्षा के कड़े पहरे में रहते थे.

कुछ देर बाद फ़ख़रीज़ादेह की गाड़ी पर हमला हुआ. ताबड़तोड़ गोलियां चलीं और उनकी मौत हो गई. ये कोई सामान्य हमला नहीं था.

मौके पर मौजूद रहे एक वरिष्ठ अधिकारी ने बताया कि वहां कोई हमलावर नहीं था. गोलियां एक कार में लगी मशीनगन से चलाई गईं लेकिन मशीनगन चलाने वाला कोई नहीं था. ईरान के एक और अधिकारी ने बताया कि मशीनगन को आर्टिफ़ीशियल इंटेलिजेंस के ज़रिए कंट्रोल किया जा रहा था.

‘कंप्यूटर से क़ाबू होने वाली मशीनगन’. ये हॉलीवुड की “किलर रोबोट” सिरीज़ वाली फ़िल्मों से प्रेरित कहानी का हिस्सा लगता है. जहां एक ऐसी मशीन है जो सोच सकती है और निशाना साधकर गोली भी चला सकती है.
लेकिन क्या ऐसा मुमकिन है, अगर है तो एक और सवाल उठता है कि क्या आने वाले दिनों में जंग में भी सैनिकों की जगह रोबोट आमने-सामने होंगे?

जंग में लड़ेंगे रोबोट?

अमेरिका की जॉन हॉपकिन्स यूनिवर्सिटी की सीनियर रिसर्च एनालिस्ट हैदर रॉफ़ कहती हैं, “हम एक ऐसे सिस्टम की बात कर रहे हैं जिसके पास ये क्षमता है कि वो किसी इंसान की मदद या निर्देश के बिना अपने लक्ष्य तय करे और उन्हें भेद सके.”

यहां ये समझना होगा कि जब जंग में रोबोट के इस्तेमाल की बात होती है तो विशेषज्ञों की ज़ुबान पर जो शब्द होता है वो है ‘ऑटोनोमस’. यानी मशीन को ख़ुद फ़ैसले लेने की ताक़त देना. इसे लेकर बहस होती रही है. इन हथियारों का दायरा भी ख़ासा बड़ा है. इनमें प्राथमिक स्तर के हथियारों से लेकर टर्मिनेटर तक आते हैं. हैदर कहती हैं कि आज भी ऐसे हथियार मौजूद हैं.

वो कहती हैं कि “हमारे पास समुद्री सुरंग, कई तरह की ज़मीनी सुरंग, साइबर तकनीक और साइबर हथियार हैं. जो ऑटोनोमस हैं. फिर इसराइल की एंटी रेडिएशन मिसाइल हैरोप है. ये कहा जाता है कि लॉन्च किए जाने के बाद ये सिग्नल के आधार पर हमला करने के बारे में तय करती हैं. आप पैट्रियट मिसाइल को निर्देशित करते हुए ओटोमैटिक मोड में तैनात कर सकते हैं.”

“किलर रोबोट” के जंग में इस्तेमाल के विचार से कई लोगों को भले ही हैरानी हो लेकिन सच ये है कि दुनिया भर में अब भी ऐसी तकनीक विकसित की जा रही है.

हैदर रॉफ़ कहती हैं, “चीन अपनी सेना को सशक्त बनाना चाहता है. वो अपनी नौसेना के जहाज़ों और पनडुब्बियों को स्वचालित बना रहे हैं. इसराइल ज़मीनी हथियारों मसलन टैंक और तोपों को बेहतर बनाने में जुटा है. रूस भी ज़मीनी उपकरणों पर काफी रक़म ख़र्च कर रहा है. अमेरिका की दिलचस्पी हर जगह है. एयरफ़ोर्स, एयरबेस सिस्टम से लेकर मिसाइल तक. ब्रिटेन भी अपनी वायुसेना और नौसेना की क्षमता बढ़ाना चाहता है.”

विशेषज्ञों को चिंता

अहम बात ये है कि अभी जो तमाम हथियार विकसित हो रहे हैं, उनमें सभी “किलर रोबोट” नहीं होंगे. लेकिन कुछ हथियारों और देशों को लेकर हैदर फ़िक्रमंद दिखती हैं.

वो कहती हैं, “पश्चिमी देश जोखिम को कम करके चलते हैं. वो अपने सिस्टम को भरपूर टेस्ट करते हैं लेकिन रूस जल्दी विकसित किए गए उपकरणों को ज़्यादा परीक्षण किए बिना ही तैनात कर देता है. मैं इसे लेकर ही फ़िक्रमंद हूं.” हैदर कहती हैं कि बिना टेस्ट किए हुए सिस्टम को मोर्चे पर लगाना किसी विध्वंस को बुलावा देने जैसा है.

ऑक्सफ़ोर्ड यूनिवर्सिटी के एसोसिएट प्रोफ़ेसर टॉम सिम्पसन ने जंग के प्रभाव को समझने में बरसों लगाए हैं. वो पाँच साल तक ब्रिटेन की सेना के साथ जुड़े रहे हैं. तकनीकी और सुरक्षा से जुड़े सवालों में उनकी दिलचस्पी लगातार बनी हुई है.

जंग जैसे ख़तरनाक़ मोर्चों पर इंसानों के बजाए रोबोट तैनात करने के विचार पर वो कहते हैं कि इसके पक्ष में एक ऐसा तर्क दिया जाता है जो सरकारों के नैतिक धरातल को मज़बूत कर देता है है. सरकारों की ये ज़िम्मेदारी है कि अपने सैनिकों की जान बचाने के लिए वो ऐसे सिस्टम विकसित करें. लेकिन टॉम आगाह करते हैं कि इस तकनीक में ख़तरे भी हैं.

मशीन कर सकती है ग़लती!

वो कहते हैं, “ये डर बना रहता है कि तकनीक ग़लत फ़ैसले ले सकती है. ये ऐसे लोगों की जान ले सकती है, जिनकी जान नहीं जानी चाहिए. इस बारे में फ़िक्र करना सही भी है. अगर सैनिक एक इंसान हो तो अपने लक्ष्य और मासूम लोगों के बीच फ़र्क़ करने की ज़िम्मेदारी उसकी होती है. लेकिन एक मशीन हमेशा कामयाबी के साथ ऐसा अंतर नहीं कर पाएगी. अब सवाल है कि इसे लेकर कितना जोखिम उठाया जा सकता है. कुछ लोग कहेंगे कि जोखिम की गुंजाइश ना के बराबर होनी चाहिए. मैं इस विचार से सहमत नहीं हूं. मेरी राय में इस तकनीकी को तभी इस्तेमाल किया जाना चाहिए जब उसके इस्तेमाल से जंग में हिस्सा नहीं ले रहे नागरिकों को इंसानी सेना के मुक़ाबले कम ख़तरा हो.”

टॉम की राय में जंग के कुछ मोर्चे ऐसे भी हैं जहां ज्यादा जोखिम उठाया जा सकता है. वो कहते हैं कि आप ऐसी स्थिति की कल्पना कीजिए जहां एक फ़ाइटर प्लेन में एक पायलट हैं और उनके पास 20 या 30 ऑटोमैटिक सिस्टम हैं. वो आकाश में जिस जगह हैं, वहां दुश्मन के अलावा कोई और नहीं है. आप देखेंगे कि ऐसी जगह स्वचालित सिस्टम कैसे कामयाबी से वार करता है. ये सुरक्षित भी है क्योंकि वहां कोई सिविलियन यानी आम नागरिक नहीं है.”

स्वचालित रोबोट तैनात करने के पक्ष में एक और तर्क दिया जाता है जो ज़्यादा व्यावहारिक है. टॉम कहते हैं कि जिन्न बोतल से बाहर आ चुका है. अगर आप ऐसे हथियार नहीं बनाते हैं तो न बनाएं आपके दुश्मन तो बनाएंगे ही.

क्या होगी रणनीति?

टॉम सिम्पसन कहते हैं, “जब ऐसे हथियारों पर पाबंदी की बात होती है या फिर आत्मनियंत्रण की वकालत की जाती है तो ये सवाल पूछा जाना चाहिए कि 20 साल बाद दुनिया कैसी होगी? कुछ ऐसे देश होंगे जिनके पास इस तरह की स्वाचालित प्रणाली होगी और हमारी सेना के पास अपने बचाव के लिए ऐसी क्षमता नहीं होगी. मुझे लगता है कि उस स्थिति में लोग सरकारों से कहेंगे कि आत्मनियंत्रण का फ़ैसला ग़लत था. सरकार का पहला कर्तव्य देश को सुरक्षित करने का है. जो जिम्मेदार सरकार हैं वो नो फर्स्ट यूज़ पॉलिसी यानी ऐसे हथियारों का पहले इस्तेमाल नहीं करने की नीति अपना सकती हैं.”

ये वही रणनीति है जो आपको 20वीं सदी की परमाणु हथियारों की होड़ याद दिला सकती है. लेकिन एक और सवाल पूछा जाता है कि ख़तरे का मुक़ाबला करने के लिए आपको वैसा ही हथियार बनाने की जरूरत क्यों है?

इस पर टॉम सिम्पसन का जवाब है, “चलिए एक ऐसे सिस्टम की बात करते हैं जिसमें नैनो या फिर माइक्रो टेक्नॉलॉजी का इस्तेमाल हुआ है और उसके जरिए एक इलाक़े में 20 से 50 हज़ार तक उपकरण तैनात हैं. इस स्थिति में ऐसा कोई तरीका नहीं है कि कोई इंसान या फिर इंसानों का दस्ता उसका मुक़ाबला कर सके. उसके साथ मुक़ाबले के लिए आपके पास भले ही हूबहू वैसा सिस्टम न हो लेकिन आपको किसी तरह के ऑटोमैटिक सिस्टम की जरूरत होगी.”

पाबंदी की माँग

टॉम कहते है कि ऐसे सिस्टम के ज़रिए ही सामने मौजूद ख़तरे का मुक़ाबला किया जा सकता है. लेकिन, सॉफ़्टवेयर इंजीनियर लौरा नोलैन की राय अलग है.
वो कहती हैं, “कुछ लोग ऐसा सोचते हैं कि भविष्य में जंग रोबोट के बीच होंगी. रोबोट सैनिक लड़ेंगे तो ऐसी जंग में ख़ून नहीं गिरेगा. मुझे लगता है कि ये एक आदर्शवादी कल्पना है. हम ज़्यादातर मौकों पर ऐसी स्थिति देखेंगे कि इन मशीनों को इंसानों से मुक़ाबला करने को तैनात किया गया है. ये काफी दर्दनाक स्थिति होगी.”

लौरा नोलैन टेक कंपनी ‘गूगल’ के साथ जुड़ी थीं. साल 2017 में उन्हें अमेरिकी रक्षा मंत्रालय के साथ एक प्रोजेक्ट पर काम करने को कहा गया. इस प्रोजेक्ट में ड्रोन से लिए गए वीडियो फ़ुटेज का विश्लेषण करने वाले आर्टिफीशियल इंटेलिजेंस सिस्टम विकसित करने थे. ये हथियार विकसित करने का प्रोजेक्ट नहीं था.

लेकिन लौरा इसे लेकर फिक्रमंद थीं. उन्हें लगता था कि वो एक ऐसी आर्टिफ़ीशियल टेक्नॉलॉजी का हिस्सा हैं जिसका रास्ता कहीं न कहीं जंग की तरफ़ जाता है. उन्होंने इसके विरोध में इस्तीफ़ा दे दिया. इसके बाद वो “किलर रोबोट” को रोकने के कैंपेन में जुट गईं. उनकी राय में ऐसे हथियारों के मूल में समस्या ये है कि कंप्यूटर और इंसानों के सोचने का तरीका अलग होता है.

लौरा कहती हैं, “कंप्यूटर गणना करते हैं जबकि इंसानों में परखकर फैसला लेने की खूबी होती है. गणना ठोस आंकड़ों के आधार पर होती है. जबकि परखकर फ़ैसला करते वक़्त कई बातों पर ग़ौर किया जाता है. अगर उदाहरण देकर समझाएं तो हममें से अधिकतर लोग किसी कोर्ट में किसी ऐसे रोबोट जज के सामने नहीं आना चाहेंगे जो क़ानून को एक तय तरीक़े से लागू कराते हों.”

तकनीक की सीमाएं

दिक्क़त ये है कि जंग के मैदान का कोई ऐसा इलाक़ा जहां सिविलियन आबादी यानी आम नागरिक रहते हों, वो संघर्ष के लिहाज से काफ़ी पेचीदा क्षेत्र होता है. वहां काफ़ी मुश्किल फैसले लेने होते हैं जिसके लिए सही परख की ज़रूरत होती है.

लौरा कहती हैं कि मशीन के सॉफ्टवेयर को जिन हालात से मुक़ाबले के लिए डिज़ाइन किया गया होता है, अगर उनसे अलग स्थितियां सामने आती हैं तो हालात बहुत ही अनिश्चित से हो सकते हैं. जबकि इंसान परिस्थिति के मुताबिक ख़ुद को ढालकर फैसला ले सकते हैं. वो कहती हैं कि ड्राइवरलेस कार की तकनीक में ऐसी ही दिक्कत दिखती है.

साल 2018 में अमेरिका में उबर की एक स्वाचालित कार टेस्टिंग के दौरान साइकिल के साथ जा रही एक महिला से टकरा गई. इस हादसे में महिला की मौत हो गई. जाँच में पाया गया कि कार का सिस्टम महिला और उनकी साइकिल को ऐसे संभावित ख़तरे के तौर पर नहीं पहचान सका जिससे कार की टक्कर हो सकती है. लौरा का तर्क है कि ऑटोनमस हथियारों के मामले में स्थितियां और ज़्यादा पेचीदा हो सकती हैं. क्योकि युद्ध अपने आप में बहुत ही जटिल स्थिति होती है. लौरा के मुताबिक यहां जवाबदेही से जुड़ा सवाल भी सामने आता है.

वो कहती हैं, “अगर ऑटोनोमस हथियार से ऐसा कुछ हो जाए जिसे युद्ध अपराध की श्रेणी में रखा जाए तो जवाबदेही किसकी होगी? क्या जवाबदेही उस कमांडर की होगी जिसने हथियार तैनात करने का आदेश दिया. शायद नहीं क्योंकि शायद ट्रेनिंग के दौरान हथियार ने ऐसा कुछ ना किया हो. ऐसा होने की कल्पना शायद इंजीनियरों ने भी न की हो. ऐसे में इंजीनियरों की जवाबदेही तय करना भी मुश्किल होगा.”
लौरा कहती हैं कि उनकी समझ में इन हथियारों पर हर हाल में पाबंदी लगाई जानी चाहिए.

ख़तरे ही ख़तरे

उधर, सेंटर फॉर न्यू अमेरिकन सिक्यूरिटी में डॉरेक्टर ऑफ टेक्नॉलजी पॉल शॉरी ऐसी तकनीक से जुड़ा एक अलग गंभीर सवाल उठाते हैं. वो कहते हैं, “विकास के साथ तकनीक हमें ऐसे रास्ते पर ले जा रही है जहां ज़िंदगी और मौत से जुड़े फैसले मशीनों के हवाले हो जाएंगे और मुझे लगता है कि ये इंसानियत के सामने एक गंभीर सवाल है.”

पॉल पेंटागन में पॉलिसी एनालिस्ट रह चुके हैं. उन्होंने एक किताब भी लिखी है, ‘आर्मी ऑफ़ नन, ऑटोनोमस वैपन्स एंड द फ्यूचर ऑफ वार.’ क्या भविष्य की जंग में ज़िंदगी और मौत से जुड़े फैसले रोबोट करेंगे, इस सवाल के जवाब में वो कहते हैं कि अभी भी ऐसी मशीनें मौजूद हैं.

पॉल कहते हैं कि पहले से की गई प्रोग्रामिंग के ज़रिए ड्रोन ख़ुद ही उड़ान भरते हैं. वो ये भी कहते हैं कि रोबोट के पास कभी इतनी बुद्धिमता नहीं हो सकती कि वो जंग के साथ जुड़े सामरिक और भूराजनीतिक जोखिम को समझ सकें.

पॉल शॉरी कहते हैं, “हाल में कुछ स्थितियां सामने आई हैं. सीरिया के आसमान में उड़ान भरते रूस और अमेरिका के लड़ाकू विमान जो ज़मीन पर अभ्यास कर रही सेनाओं की मदद कर रहे थे. बीते साल चीन और भारत की सेनाओं के बीच हुई झड़प. इस तरह के सैन्य विवादों के बीच अगर ऑटोनोमस हथियार तैनात हों तो बड़े जोखिम की आशंका रहती है. अगर ऐसे हथियार ग़लत जगह निशाना लगाते हैं तो संघर्ष ज़्यादा भड़क सकता है.”

पॉल ये भी कहते हैं कि स्टॉक मार्केट में सुपर ह्यूमन की रफ़्तार में शेयर खरीदने और बेचने के लिए कंप्यूटर का इस्तेमाल होता है. सबने इसके जोखिम भी देखे हैं. फ्लैश क्रैश यानी अचानक तेज़ी से होने वाली गिरावट की स्थिति में इंसान कोई हस्तक्षेप नहीं कर सकता है क्योंकि मशीनें ये सब कुछ मिलीसैकेंड जितने कम वक़्त में कर देती हैं. ऐसा ही युद्ध की स्थिति में भी हो सकता है. पलक झपकने भर की देरी में दो पक्षों की मशीनों के बीच गोलीबारी देखने को मिल सकती है. स्थितियां तब और भी भयावह हो सकती हैं जब दुश्मन आपके हथियारों का मुंह आपकी ओर ही मोड़ दे.

पॉल कहते हैं, “ऐसा बिल्कुल हो सकता है. किसी भी चीज़ को हैक किया जा सकता है. सेना भी उसी तरह के असुरक्षित कंप्यूटरों का इस्तेमाल करती है जैसे के सभी लोग करते हैं. ख़ुद चलने वाली कारें हैक की जा चुकी हैं. हम ये देख चुके हैं कि हैकर्स दूर बैठकर भी कार की स्टीयरिंग और ब्रेक पर क़ाबू कर सकते हैं. लेकिन अगर कोई हैकर हथियारों पर क़ाबू कर लेता है तो नुक़सान काफ़ी ज़्यादा हो सकता है.”

पॉल कहते हैं कि ‘किलर रोबोट’ से जुड़े सवाल कुछ और भी हैं. वो कहते हैं कि मान लेते हैं कि मशीनें सही जगह निशाना लगाती हैं तो भी जान का जो नुक़सान होगा उसके लिए कोई इंसान जवाबदेह नहीं होगा. ‘सवाल ये भी है कि अगर कोई जंग का बोझ अपने कंधों पर नहीं लेगा तो हम समाज से क्या कहेंगे? हम इंसानियत को क्या जवाब देंगे?’

इतना तय है कि आज जंग में हिस्सा ले रही मशीनों की आगे भी भूमिका बनी रहेगी. लेकिन क्या हम तकनीक की सीमाओं को समझ पाएंगे? मशीनों को फ़ैसला लेने के कितने अधिकार दिए जाएंगे? भविष्य में क्या होगा, इस सवाल का जवाब यही है कि स्वचालित रोबोट के पास उतने ही अधिकार होंगे, जितने कि हम उन्हें देंगे.

-BBC