मैं अलग हो गया

अंतरिक्ष यात्रा और इलेक्ट्रिक कारों के बीच कृत्रिम बुद्धिमत्ता: आने वाला भविष्य

कृत्रिम बुद्धिमत्ता में आज तक की गई प्रगति चौंका देने वाली है। वे प्राप्त परिणामों में उतने ही अधिक हैं जितनी गति से वे प्राप्त किए गए हैं - लेकिन हमारे पास एक एआई हो सकता है जो पृथ्वी पर सबसे चतुर व्यक्ति की तुलना में बहुत अधिक उज्ज्वल है। लेकिन शायद यह एक खतरनाक स्थिति होगी.

भविष्य पर विचार

दुबई में हाल ही में आयोजित वर्ल्ड गवर्नमेंट समिट में बोलते हुए, अपनी कंपनी की इलेक्ट्रिक कारों को बढ़ावा देने के लिए, एलोन मस्क अलग-अलग मुद्दों को संबोधित करने में विफल नहीं हुए, यह बताते हुए कि वे क्या मानते हैं कि ऐसे मुद्दे और चुनौतियां हैं जिनका मानवता को सामना करना होगा और शीघ्र ही यहां से दूर करना होगा। दक्षिण अफ़्रीकी मूल के करोड़पति, हमेशा की तरह, बोर्ड भर में थे: कृत्रिम बुद्धि के विकास और संभावित सामाजिक नतीजों से प्राप्त अज्ञात अज्ञात से, गतिशीलता के लिए, इंटरप्लानेटरी और क्यों नहीं, यहां तक ​​​​कि इंटरस्टेलर यात्रा, संभावित परिदृश्यों को रेखांकित करने तक निकट भविष्य के लिए, लापता हुए बिना, हालांकि, कुछ विचारों को एक मध्यम और दीर्घकालिक क्षितिज की ओर भी प्रक्षेपित किया गया।

कई लोगों द्वारा दूरदर्शी, कल की वास्तविकता का अनुमान लगाने वाला, अंतरिक्ष यात्रा का अग्रणी (स्पेसएक्स), इलेक्ट्रिक मोबिलिटी (टेस्ला) का प्रवर्तक, इको-सस्टेनेबल एनर्जी (सोलर सिटी) का हालिया प्रस्तावक माना जाता है। इतने महत्वाकांक्षी, जितने धनी हैं, मस्क कहते हैं कि वे ऐसे समाधान चाहते हैं जो मानवता को लाभ पहुंचा सकें। हालांकि निंदकों की कोई कमी नहीं है और विवेक जरूरी है, कोई भी उसे लगातार आगे की ओर देखने वाली एक शानदार बुद्धिमत्ता से इनकार नहीं कर सकता है और चाहे कोई इसे पसंद करे या न करे, दुनिया के भाग्य की कल्पना और आकार देने में कुछ भूमिका है कि यह होगा आना।

इसलिए यह सुनने लायक है कि उसे हमें क्या बताना है और फिर, संभवतः, उठाए गए विषयों पर विचार करना और उन पर सवाल उठाना है, जो कुछ भी हो लेकिन तुच्छ हैं। यहां मैं आर्टिफिशियल इंटेलिजेंस से संबंधित कुछ विषयों पर गहराई से बात करूंगा और ऐसा मैं मस्क के भाषण से निकाले गए कुछ वाक्यों से शुरू करूंगा।

अधिक परेशान करने वाले मुद्दों में से एक कृत्रिम बुद्धिमत्ता है ... गहरी कृत्रिम बुद्धिमत्ता, या जिसे कभी-कभी सामान्य कृत्रिम बुद्धिमत्ता के रूप में संदर्भित किया जाता है, जहाँ हमारे पास एआई हो सकता है जो पृथ्वी के सबसे चतुर व्यक्ति की तुलना में बहुत अधिक स्मार्ट हो। मुझे लगता है कि यह एक खतरनाक स्थिति होगी।

कृत्रिम बुद्धिमत्ता में आज तक की गई प्रगति चौंका देने वाली है। वे प्राप्त परिणामों के लिए उतने ही अधिक हैं जितनी गति के लिए वे प्राप्त किए गए हैं। एक स्पष्ट रूप से अजेय और अत्यंत तेज़ चाल, जो धीमा होने के बजाय अधिक से अधिक गति करती है। वास्तव में यह माइक्रोप्रोसेसरों में ट्रांजिस्टर की वृद्धि के संबंध में मूर के कानून के अनुसार एक घातीय प्रवृत्ति का पालन करता है। एक लय जो वास्तव में हमारे दिमाग के लिए नुकसान छुपाती है।

2047 में विलक्षणता हमारी प्रतीक्षा कर रही है, मासायोशी सोन का वचन

तथ्य यह है, एरिक ब्रायनजॉल्फसन और एंड्रयू मैकेफी (द सेकेंड मशीन एज, 2014) को समझाएं, कि कृत्रिम बुद्धि के क्षेत्र में प्रगति, हालांकि गणितीय दृष्टिकोण से स्थिर है, हमारी आंखों के लिए व्यवस्थित नहीं लगती है। दो लेखक हेमिंग्वे से एक वाक्यांश उधार लेकर इसे चित्रित करते हैं जो सर्पिल का जिक्र करते हैं जो एक आदमी को बर्बाद करने की ओर ले जाता है: «क्रमिक और अंत में अचानक»।

इसका मतलब यह है कि घातीय प्रगति एक क्रमिक वृद्धि दर्ज करती है, शुरू में लगभग नगण्य, उस बिंदु तक जहां, जाहिरा तौर पर, अचानक त्वरण होता है और मात्राएं अथाह, यहां तक ​​कि अकल्पनीय हो जाती हैं और इसलिए बिल्कुल भी प्रबंधनीय नहीं होती हैं।

दूसरे शब्दों में, इस दर पर जारी रहने से मशीनों की प्रभावी कंप्यूटिंग शक्ति के बीच एक तीव्र विसंगति होगी (कुछ के अनुसार उन्हें स्वायत्त रूप से खुद को सुधारने और संभवतः अपनी आत्म-जागरूकता विकसित करने की अनुमति देने के लिए विकसित करने में सक्षम) और इसे गर्भ धारण करने, इसे नियंत्रित करने, इसकी भविष्यवाणी करने और फिर इसे नियंत्रित करने की मनुष्य की क्षमता। गहरा केसुरा का यह क्षण विलक्षणता का नाम लेता है। यद्यपि विलक्षणता अभी भी एक अनुमान का प्रतिनिधित्व करती है और सर्वसम्मति से सहमति नहीं लेती है, यह एक ऐसी घटना का वर्णन करती है जो तेजी से ठोस और दुर्भाग्य से निकट दिखाई देती है।

सॉफ्टबैंक रोबोटिक्स के सीईओ मासायोशी सोन ने हाल ही में बार्सिलोना में आयोजित मोबाइल वर्ल्ड कांग्रेस में बोलते हुए कहा कि तीस साल के भीतर एक एकल माइक्रोप्रोसेसर में संलग्न आईक्यू हमारे बीच सबसे चतुर से कहीं अधिक होगा। "आज से तीस साल बाद हमारे जूतों में लगी कोई भी चिप हमारे दिमाग से ज्यादा स्मार्ट होगी। हमारी कीमत हमारे जूतों से भी कम होगी।"

बेटा हमारे मस्तिष्क में न्यूरॉन्स की संख्या और एक चिप पर ट्रांजिस्टर की संख्या के बीच तुलना पर अपनी भविष्यवाणी को आधार बनाता है। उनकी गणना के अनुसार, 2018 में ट्रांजिस्टर भाग्य से आगे निकल जाएंगे और आंकड़े अलग होने लगेंगे। अपेक्षाकृत कम समय में, व्यक्तिगत माइक्रोप्रोसेसर लगभग 10.000 के अनुमानित IQ प्राप्त कर लेंगे, दूसरी ओर मानवता के इतिहास में सबसे शानदार दिमाग मुश्किल से 200 तक पहुंचेंगे। "अर्थात्, एक ऐसी बुद्धि जो लोगों की कल्पना से परे है [कोई फर्क नहीं पड़ता] कि कोई कितना बुद्धिमान है। फिर भी मुझे विश्वास है कि तीस वर्षों के भीतर यह सब एक वास्तविकता बन जाएगा। इसलिए हमारे पास विलक्षणता के आगमन की तिथि भी है: 2047।

क्या हम इसलिए करीब हैं और झुकना तय है? सोन का कहना है कि वह एक ऐसे भविष्य को लेकर आशान्वित और आश्वस्त है जहां मनुष्य और मशीनें सह-अस्तित्व और सहयोग कर सकते हैं। "मुझे विश्वास है कि यह अधीक्षण हमारा साथी बन जाएगा। अगर हम इसका दुरुपयोग करते हैं, तो यह जोखिम पैदा करेगा। अगर हम इसे ईमानदार इरादों [अच्छी आत्माओं] के बाद उपयोग करते हैं तो यह बेहतर जीवन में हमारा साथी होगा».

मुझे लगता है कि हमें कृत्रिम बुद्धिमत्ता को कैसे अपनाया जा रहा है, इस पर पूरा ध्यान देने की आवश्यकता है ... इसलिए मुझे लगता है कि सार्वजनिक सुरक्षा के लिए यह महत्वपूर्ण है कि हमें एक ऐसी सरकार की आवश्यकता है जो कृत्रिम बुद्धिमत्ता की बारीकी से निगरानी करे और यह सुनिश्चित करे कि यह लोगों के लिए खतरा पैदा न करे।

विलक्षणता मनुष्य के लिए बहुत गंभीर खतरा है

Google ने हाल ही में अपने डीपमाइंड द्वारा विकसित एआई पर किए गए एक शोध के परिणामों की घोषणा की, जो कि अल्फागो, गेम के बाद गेम (डीप लर्निंग), पहले यूरोपीय गो चैंपियन और अंत में विश्व एक के साथ दूर करने में सक्षम साबित हुआ। हालांकि ये प्रारंभिक परिणाम हैं और अभी तक कोई निश्चित अध्ययन प्रकाशित नहीं हुआ है, सबूत बताते हैं कि उन्नत एआई उस वातावरण से अनुकूलन और सीखने में सक्षम होगा जिसमें यह संचालित होता है। इसके अलावा, जब इसे घेरा जाता है और झुकने का जोखिम होता है, तो इसे जीतने में सक्षम होने के लिए "बेहद आक्रामक" के रूप में परिभाषित रणनीतियों का उपयोग करना चुनता है। "शोधकर्ताओं का सुझाव है कि एजेंट जितना अधिक बुद्धिमान होता है, वह अपने परिवेश से सीखने में उतना ही अधिक सक्षम होता है, इस प्रकार शीर्ष पर आने के लिए कुछ बेहद आक्रामक रणनीति का उपयोग करने में सक्षम होता है।"

कई आधिकारिक आवाजों ने अपनी आशंका व्यक्त की है कि विशेष रूप से उन्नत एआई एक बहुत ही ठोस खतरा पैदा कर सकता है। इनमें से एक स्टीफन हॉकिंग का है, जो मानते हैं कि प्रजातियों की निरंतरता भी खतरे में हो सकती है: "पूर्ण कृत्रिम बुद्धि के विकास का मतलब मानव जाति का अंत हो सकता है"।

हॉकिंग, मस्क और अन्य महत्वपूर्ण हस्तियां, जैसे कि। स्टीव वोज्नियाक और नोआम चॉम्स्की ने एक खुले पत्र पर हस्ताक्षर किए हैं, जिसमें स्वायत्त हथियार प्रणालियों के विकास में निहित जोखिमों के बारे में चेतावनी दी गई है और संयुक्त राष्ट्र द्वारा उन पर प्रतिबंध लगाने की मांग की गई है। «आर्टिफिशियल इंटेलिजेंस तकनीक एक ऐसे स्तर पर पहुंच गई है जहां स्वायत्त हथियारों का विकास है - वास्तव में अगर कानूनी नहीं है - वर्षों की बात है, दशकों की नहीं। और दांव ऊंचे हैं: बारूद और परमाणु हथियारों के बाद स्वायत्त हथियारों को हथियारों में तीसरी क्रांति के रूप में वर्णित किया गया है।

डीपमाइंड द्वारा विकसित परिष्कृत एआई ने न केवल यह दिखाया है कि यह जानता है कि प्रबल होने के लिए आक्रामक कैसे होना चाहिए, बल्कि उपयोगी और आवश्यक साबित होने पर, अन्य कृत्रिम बुद्धि के साथ सहकारी रणनीतियों को पहचानने और कार्यान्वित करने के लिए भी। «... संदेश स्पष्ट है, हम वास्तविक जीवन की स्थितियों में प्रतिस्पर्धी हितों के खिलाफ विभिन्न एआई प्रणालियों को गड्ढे में डालते हैं, और अगर उनके लक्ष्यों को हम मनुष्यों से ऊपर लाभ पहुंचाने के अंतिम लक्ष्य के खिलाफ संतुलित नहीं किया जाता है, तो चौतरफा युद्ध हो सकता है। असंख्य इंटरकनेक्टेड नेटवर्कों से बनी एक कृत्रिम बुद्धिमत्ता द्वारा निर्धारित विशाल जटिलता अपने आप में एक चुनौती है जो इसे नियंत्रित करने की मनुष्य की क्षमता से बहुत परे साबित हो सकती है।

एआई के दुष्प्रभाव

हालांकि, इससे पहले कि कोई अधीक्षण युद्ध के मैदान में घातक साबित होता है या यहां तक ​​कि मानवता के खिलाफ जाने का फैसला करता है, द टर्मिनेटर में स्काईनेट सुपरकंप्यूटर की तरह, अन्य खतरे मौजूद हैं। कुछ समय पहले कस्तूरी ने पहले ही संभावित दुष्प्रभावों, घातक या किसी भी मामले में अप्रिय के बारे में चेतावनी दी थी जो स्थितियों में उत्पन्न हो सकते हैं और कारणों से, यदि आप चाहें, तो बहुत अधिक तुच्छ। इसलिए हमें अपने स्मार्ट उपकरणों की प्रोग्रामिंग करते समय बेहद सावधान और सतर्क रहना चाहिए। हाइपरबोले के साथ मस्क कहते हैं, खराब तरीके से प्रोग्राम किया गया एआई, "निष्कर्ष निकाल सकता है कि सभी दुखी मनुष्यों को समाप्त कर दिया जाना चाहिए। … या कि हम सभी को डोपामाइन और सेरोटोनिन के साथ पकड़ा जाना चाहिए और खुशी को अधिकतम करने के लिए सीधे मस्तिष्क में इंजेक्ट किया जाना चाहिए, क्योंकि वह इस निष्कर्ष पर पहुंची कि यह डोपामाइन और सेरोटोनिन है जो खुशी को प्रेरित करते हैं, इसलिए यह इसे सबसे बड़ी डिग्री तक बढ़ा देता है। एक बार फिर, बुद्धिमान प्रणालियों की जटिलता जितनी अधिक बढ़ती है और बाद की जुड़ने और नेटवर्क की क्षमता बढ़ती है, उतना ही अधिक उनके काम के प्रभावों का प्रबंधन और भविष्यवाणी करने में कठिनाई होती है।

हाल ही में वैज्ञानिकों, शोधकर्ताओं और उद्यमियों के एक बड़े समूह (फिलहाल 3441) ने फ्यूचर ऑफ लाइफ इंस्टीट्यूट के 2017 असिलोमर सम्मेलन के अवसर पर तैयार किए गए एक खुले पत्र पर हस्ताक्षर किए, जिसका उद्देश्य दिशा-निर्देशों के एक सेट को इंगित करना है, जिसमें शामिल हैं नैतिक वाले, जिन्हें उन्हें कृत्रिम बुद्धि के क्षेत्र में अनुसंधान की जानकारी देनी चाहिए। Asilomar AI सिद्धांत, तेईस बिंदुओं में, "संभावित सुपर-इंटेलिजेंस सहित, अनुसंधान रणनीतियों से लेकर डेटा सुरक्षा तक, भविष्य के मुद्दों तक"। लक्ष्य, एक बार फिर, एआई की प्रगति को सामान्य हित की दिशा में निर्देशित करने का प्रयास करना है और मानवता के सभी के लिए एक लाभकारी भविष्य सुनिश्चित करना है। "मैं युद्ध का समर्थक नहीं हूं, और मुझे लगता है कि यह बेहद खतरनाक हो सकता है ... मुझे स्पष्ट रूप से विश्वास है कि प्रौद्योगिकी में बहुत अधिक संभावनाएं हैं, और यहां तक ​​कि आज हमारे पास जो क्षमताएं हैं, उसके बावजूद यह कल्पना करना मुश्किल नहीं है कि इसका उपयोग विशेष रूप से हानिकारक में कैसे किया जा सकता है।" तरीके।" स्टैनफोर्ड विश्वविद्यालय में कंप्यूटर विज्ञान विभाग के स्टेफानो एर्मोन ने कहा, दस्तावेज़ के हस्ताक्षरकर्ताओं में से एक।

स्टीफन हॉकिंग, असिलोमर एआई सिद्धांतों के एक हस्ताक्षरकर्ता भी, एक आकर्षक और हार्दिक लेख के लेखक थे, जो पिछले दिसंबर में "द गार्जियन" में महत्वपूर्ण शीर्षक के साथ प्रकाशित हुआ था: यह हमारे ग्रह के लिए सबसे खतरनाक युग है। जाने-माने खगोल वैज्ञानिक इस बात को रेखांकित करते हैं कि कैसे मानवता को भारी सामाजिक और आर्थिक परिवर्तनों का सामना करना पड़ेगा। वैश्वीकरण से प्रेरित प्रभाव, असमानताओं में वृद्धि और कुछ के हाथों में धन और संसाधनों की एकाग्रता, "... तकनीकी परिवर्तन का त्वरण" जोड़ा जाएगा। जैसे कि वे पर्याप्त नहीं थे, "हम चौंका देने वाली पर्यावरणीय चुनौतियों का सामना कर रहे हैं: जलवायु परिवर्तन, खाद्य उत्पादन, अधिक जनसंख्या, अन्य प्रजातियों का विनाश, महामारी, समुद्र का अम्लीकरण।"

ये सभी साक्ष्य एक चेतावनी और आसन्न खतरे दोनों का गठन करते हैं। परिणाम सभी के लिए स्पष्ट हैं: «एक साथ, वे हमें याद दिलाते हैं कि हम मानवता के विकास के लिए सबसे खतरनाक क्षण में हैं। वर्तमान में हमारे पास उस ग्रह को नष्ट करने की तकनीक है जिस पर हम रहते हैं, लेकिन हम अभी तक इसे छोड़ने की संभावना को परिपक्व नहीं कर पाए हैं।"

इसलिए, हॉकिंग ने निष्कर्ष निकाला, "मेरे लिए, इस सब का वास्तव में प्रासंगिक पहलू यह है कि आज, हमारे इतिहास में किसी अन्य समय की तुलना में, हमारी प्रजातियों को एक साथ काम करने की आवश्यकता है"। इसलिए सहयोग करें, सहयोग करें, उनकी देखभाल करें जो रह गए हैं और इससे भी अधिक, जो पीछे रह जाएंगे, असमानताओं को कम करें, विभाजित करने के बजाय एकजुट हों, साझा करें और सामान्य भलाई के लिए काम करें, कुछ लोगों के हित में नहीं। आर्टिफिशियल इंटेलिजेंस में उन्नति इस परिदृश्य में एक प्रमुख भूमिका निभाएगी। यह असंतुलन और असमानताओं को बढ़ाने में सक्षम होगा, समाज को फंसाने में सक्षम होगा जैसा कि हम आज जानते हैं, या संघर्षों और मतभेदों को दूर करने में मदद करते हैं।

इतिहास से सीखें

मासायोशी सोन के शब्द एआई के भविष्य के बारे में लौटते हैं: «यदि हम इसका दुरुपयोग करते हैं, तो यह एक जोखिम होगा। अगर हम इसे ईमानदार इरादों [अच्छी आत्माओं] के बाद उपयोग करते हैं तो यह बेहतर जीवन में हमारा साथी होगा». हॉकिंग, सब कुछ के बावजूद, आश्वस्त हैं: «हम यह कर सकते हैं, मैं अपनी प्रजातियों के लिए अत्यधिक आशावादी हूं; लेकिन इस सब के लिए पिछले साल के सबक सीखने के लिए लंदन से हार्वर्ड, कैम्ब्रिज से हॉलीवुड तक अभिजात वर्ग की आवश्यकता होगी। सबसे पहले, उन्हें एक चुटकी विनम्रता सीखने दें». यदि हम अतीत को देखें, तो अभिजात वर्ग शायद ही कभी दूरदर्शिता के लिए चमके हों और विनम्रता के लिए तो और भी कम। हालांकि, चल रहे परिवर्तनों और अंततः विलुप्त होने के अंतिम संभावित जोखिम के लिए दिशा में बदलाव की आवश्यकता होती है जो यथास्थिति से लाभान्वित होने वाले कुछ लोगों के हित में भी है। इसमें कोई संदेह नहीं है कि अभिजात वर्ग इससे अवगत है, लेकिन असली सवाल यह है कि क्या वे भी इसके बारे में गहन रूप से जागरूक और आश्वस्त हैं? आखिरकार, इतिहास से हमें जो सबक मिलता है, वह हमें आग्रह करता है कि हम अकर्मण्य न रहें और रुके रहें क्योंकि, जैसा कि हॉकिंग खुद अफसोस के साथ स्वीकार करते हैं, "... आइए इसका सामना करते हैं, यह ज्यादातर मूर्खता की कहानी है"।

समीक्षा