आर्टिफिशियल इंटेलिजेंस के लाभ और जोखिम

1

AI क्या है?

SIRI से लेकर सेल्फ-ड्राइविंग कारों तक, आर्टिफिशियल इंटेलिजेंस (AI) तेजी से प्रगति कर रहा है। जबकि विज्ञान कथा अक्सर एआई को मानव जैसी विशेषताओं वाले रोबोट के रूप में चित्रित करती है, एआई Google के खोज एल्गोरिदम से आईबीएम के वॉटसन तक स्वायत्त हथियारों में कुछ भी शामिल कर सकता है।

आर्टिफिशियल इंटेलिजेंस आज ठीक से संकीर्ण एअर इंडिया (या कमजोर एआई) के रूप में जाना जाता है , इसमें इसे एक संकीर्ण कार्य (उदाहरण के लिए केवल चेहरे की पहचान या केवल इंटरनेट खोजों या केवल एक कार चलाने) के लिए डिज़ाइन किया गया है। हालांकि, कई शोधकर्ताओं का दीर्घकालिक लक्ष्य सामान्य एआई (एजीआई या मजबूत एआई) बनाना है । जबकि संकीर्ण AI मनुष्यों को उसके विशिष्ट कार्य के रूप में बेहतर बना सकता है, जैसे शतरंज खेलना या समीकरणों को हल करना, AGI लगभग हर संज्ञानात्मक कार्य में मनुष्यों को पीछे छोड़ देगा।

क्यों अनुसंधान AI सुरक्षा?

निकट अवधि में, एआई के प्रभाव को समाज हित पर रखने के लक्ष्य को अर्थशास्त्र और कानून से लेकर सत्यापन, वैधता, सुरक्षा और नियंत्रण जैसे कई विषयों में अनुसंधान के लिए प्रेरित किया जाता है। जबकि यह एक मामूली उपद्रव से थोड़ा अधिक हो सकता है यदि आपका लैपटॉप दुर्घटनाग्रस्त हो जाता है या हैक हो जाता है, तो यह सब अधिक महत्वपूर्ण हो जाता है कि एक AI सिस्टम वह करता है जो आप करना चाहते हैं यदि यह आपकी कार, आपके हवाई जहाज, आपके पेसमेकर, आपके स्वचालित व्यापार को नियंत्रित करता है सिस्टम या आपकी पावर ग्रिड एक अन्य अल्पकालिक चुनौती घातक स्वायत्त हथियारों में विनाशकारी हथियारों की दौड़ को रोक रही है ।

लंबी अवधि में, एक महत्वपूर्ण सवाल यह है कि अगर मजबूत AI की खोज सफल हो जाए और सभी संज्ञानात्मक कार्यों में एक AI प्रणाली मनुष्यों से बेहतर हो जाए। जैसा कि IJ गुड ने 1965 में बताया था , होशियार AI सिस्टम डिजाइन करना अपने आप में एक संज्ञानात्मक कार्य है। ऐसी प्रणाली संभावित रूप से पुनरावर्ती आत्म-सुधार से गुजर सकती है, जो मानव बुद्धि को बहुत पीछे छोड़ते हुए एक खुफिया विस्फोट को ट्रिगर करती है ।

क्रांतिकारी नई तकनीकों का आविष्कार करके, इस तरह के एक सुपरिन्टिजेन्स से हमें युद्ध, बीमारी और गरीबी को मिटाने में मदद मिल सकती है , और इसलिए मजबूत एआई का निर्माण मानव इतिहास की सबसे बड़ी घटना हो सकती है। हालांकि, कुछ विशेषज्ञों ने चिंता व्यक्त की है, कि यह अंतिम भी हो सकता है, जब तक कि हम सुपर के पहले एआई के लक्ष्यों को अपने साथ संरेखित करना नहीं सीखते।

कुछ ऐसे लोग हैं जो सवाल करते हैं कि क्या मजबूत एआई कभी हासिल किया जाएगा, और अन्य जो जोर देते हैं कि सुपरिंटिग्नेट एआई का निर्माण लाभकारी होने की गारंटी है। एफएलआई में हम इन दोनों संभावनाओं को पहचानते हैं, लेकिन किसी कृत्रिम बुद्धिमत्ता प्रणाली को जानबूझकर या अनजाने में बहुत नुकसान पहुंचाने की क्षमता को भी पहचानते हैं। हमारा मानना ​​है कि आज अनुसंधान हमें भविष्य में इस तरह के संभावित नकारात्मक परिणामों को रोकने और बेहतर तरीके से तैयार करने में मदद करेगा, इस प्रकार नुकसान से बचने के दौरान एआई के लाभों का आनंद लेगा।

एआई खतरनाक कैसे हो सकता है?

अधिकांश शोधकर्ता इस बात से सहमत हैं कि एक अधीक्षक एआई प्यार या नफरत जैसी मानवीय भावनाओं का प्रदर्शन करने की संभावना नहीं है, और एआई से जानबूझकर परोपकारी या पुरुषवादी बनने की उम्मीद करने का कोई कारण नहीं है। इसके बजाय, जब एआई एक जोखिम बन सकता है, इस पर विचार करते हुए, विशेषज्ञ दो परिदृश्यों को सबसे अधिक संभावना मानते हैं:

  • एआई को कुछ विनाशकारी करने के लिए प्रोग्राम किया गया है: स्वायत्त हथियार आर्टिफिशियल इंटेलिजेंस सिस्टम हैं जिन्हें मारने के लिए प्रोग्राम किया जाता है। गलत व्यक्ति के हाथों में, ये हथियार आसानी से बड़े पैमाने पर हताहत हो सकते हैं। इसके अलावा, एआई हथियारों की दौड़ अनजाने में एआई युद्ध का कारण बन सकती है, जिसके परिणामस्वरूप बड़े पैमाने पर हताहत होते हैं। दुश्मन द्वारा नाकाम किए जाने से बचने के लिए, इन हथियारों को केवल “बंद” करने के लिए बेहद मुश्किल होने के लिए डिज़ाइन किया जाएगा, ताकि मनुष्य ऐसी स्थिति पर नियंत्रण खो सकें। यह जोखिम वह है जो संकीर्ण एआई के साथ भी मौजूद है, लेकिन एआई खुफिया और स्वायत्तता के स्तर में वृद्धि के रूप में बढ़ता है।
  • एआई को कुछ लाभकारी बनाने के लिए प्रोग्राम किया जाता है, लेकिन यह अपने लक्ष्य को प्राप्त करने के लिए एक विनाशकारी विधि विकसित करता है: यह तब भी हो सकता है जब हम एआई के लक्ष्यों को अपने साथ पूरी तरह से संरेखित करने में विफल होते हैं, जो कि हड़ताली रूप से कठिन है। यदि आप एक आज्ञाकारी बुद्धिमान कार से आपको हवाई अड्डे पर जितनी जल्दी हो सके ले जाने के लिए कह सकते हैं, तो हो सकता है कि आप वहां हेलीकॉप्टरों से पीछा करें और उल्टी से आच्छादित हों, जो आप नहीं चाहते थे, लेकिन वास्तव में आपने क्या मांगा था। यदि एक महत्वाकांक्षी जियोइंजीनियरिंग परियोजना के साथ एक अधीक्षण प्रणाली का काम सौंपा जाता है, तो यह हमारे पारिस्थितिक तंत्र के साथ एक दुष्प्रभाव के रूप में कहर बरपा सकता है, और इसे रोकने के लिए एक खतरे के रूप में मानव प्रयासों को देखने के लिए प्रयास करता है।

जैसा कि इन उदाहरणों से पता चलता है, उन्नत AI के बारे में चिंता पुरुषत्व नहीं है बल्कि क्षमता है। एक सुपर-बुद्धिमान AI अपने लक्ष्यों को पूरा करने में बहुत अच्छा होगा, और यदि उन लक्ष्यों को हमारे साथ गठबंधन नहीं किया जाता है, तो हमारे पास एक समस्या है।

आप शायद एक दुष्ट विरोधी हेटर नहीं हैं जो चींटियों को द्वेष से बाहर निकालता है, लेकिन यदि आप एक पनबिजली हरी ऊर्जा परियोजना के प्रभारी हैं और इस क्षेत्र में एक बाढ़ आ रही है, तो चींटियों के लिए बहुत बुरा है। एआई सुरक्षा अनुसंधान का एक प्रमुख लक्ष्य उन चींटियों की स्थिति में मानवता को कभी जगह नहीं देना है।

एआई सुरक्षा में हाल ही में दिलचस्पी क्यों

स्टीफन हॉकिंग, एलोन मस्क, स्टीव वोज्नियाक, बिल गेट्स और विज्ञान और प्रौद्योगिकी के कई अन्य बड़े नामों ने हाल ही में मीडिया में चिंता व्यक्त की है और एआई द्वारा किए गए जोखिमों के बारे में खुले पत्र के माध्यम से , कई प्रमुख AI शोधकर्ताओं द्वारा शामिल हुए। विषय अचानक सुर्खियों में क्यों है?

यह विचार कि मजबूत AI की खोज अंततः सफल होगी, विज्ञान कल्पना, सदियों या उससे अधिक दूर के रूप में सोचा गया था। हालांकि, हालिया सफलताओं के लिए, कई एआई मील के पत्थर, जो विशेषज्ञों ने केवल पांच साल पहले दशकों तक देखे थे, अब पहुंच गए हैं, जिससे कई विशेषज्ञ हमारे जीवनकाल में अधीक्षण की संभावना को गंभीरता से लेते हैं।

हालांकि कुछ विशेषज्ञ अभी भी अनुमान लगाते हैं कि मानव-स्तरीय AI सदियों से दूर है, अधिकांश एअर इंडिया ने 2015 प्यूर्टो रिको कॉन्फ्रेंस में शोध किया था कि यह 2060 से पहले होगा। चूंकि आवश्यक सुरक्षा अनुसंधान को पूरा करने में दशकों लग सकते हैं, इसलिए इसे शुरू करना समझदारी है। ।

क्योंकि एआई में किसी भी इंसान की तुलना में अधिक बुद्धिमान बनने की क्षमता है, हमारे पास यह अनुमान लगाने का कोई निश्चित तरीका नहीं है कि यह कैसे व्यवहार करेगा। हम पिछले तकनीकी विकास का उपयोग आधार के रूप में नहीं कर सकते हैं क्योंकि हमने कभी भी ऐसा कुछ भी नहीं बनाया है, जो हमारे लिए, अनजाने में या अनजाने में, हमें आउटसोर्स कर दे।

हम जो सामना कर सकते हैं उसका सबसे अच्छा उदाहरण हमारा अपना विकास हो सकता है। लोग अब ग्रह को नियंत्रित करते हैं, इसलिए नहीं कि हम सबसे तेज़, सबसे तेज़ या सबसे बड़े हैं, बल्कि इसलिए कि हम सबसे चतुर हैं। यदि हम अब सबसे चतुर नहीं हैं, तो क्या हम नियंत्रण में बने रहने के लिए आश्वस्त हैं?

FLI की स्थिति यह है कि हमारी सभ्यता तब तक फलती-फूलती रहेगी, जब तक हम प्रौद्योगिकी की बढ़ती शक्ति और इसे प्रबंधित करने वाले ज्ञान के बीच दौड़ जीत लेते हैं। एआई तकनीक के मामले में, एफएलआई की स्थिति यह है कि उस दौड़ को जीतने का सबसे अच्छा तरीका पूर्व सुरक्षा को बाधित करना नहीं है, बल्कि एआई सुरक्षा अनुसंधान का समर्थन करके उत्तरार्द्ध में तेजी लाने के लिए है।

उन्नत एआई के बारे में शीर्ष मिथक

कृत्रिम बुद्धिमत्ता के भविष्य के बारे में एक आकर्षक बातचीत हो रही है और मानवता के लिए इसका क्या मतलब होना चाहिए। ऐसे आकर्षक विवाद हैं जहां दुनिया के प्रमुख विशेषज्ञ असहमत हैं, जैसे: एआई का भविष्य के नौकरी बाजार पर प्रभाव; यदि / जब मानव-स्तर AI विकसित किया जाएगा; क्या यह एक खुफिया विस्फोट की ओर ले जाएगा; और क्या यह ऐसी चीज है जिसका हमें स्वागत करना चाहिए या डरना चाहिए। लेकिन लोगों को गलतफहमी और एक-दूसरे से बात करने के कारण होने वाले उबाऊ छद्म विवादों के कई उदाहरण भी हैं। अपने आप को दिलचस्प विवादों और खुले सवालों पर ध्यान केंद्रित करने में मदद करने के लिए – और गलतफहमी पर नहीं – चलो कुछ सबसे आम मिथकों को साफ करें।

समयरेखा मिथक:-

पहला मिथक समयरेखा को मानता है: मशीनों को मानव-स्तर की बुद्धिमत्ता को बहुत आगे तक ले जाने में कितना समय लगेगा? एक आम गलतफहमी यह है कि हम इसका जवाब बहुत निश्चितता के साथ जानते हैं।

एक लोकप्रिय मिथक यह है कि हम जानते हैं कि हम इस सदी में अलौकिक ऐ को प्राप्त करेंगे। वास्तव में, इतिहास तकनीकी अति-सम्मोहन से भरा है। वे फ्यूजन पावर प्लांट और फ्लाइंग कार कहां हैं जिनका वादा किया गया था कि अब तक हमारे पास है? क्षेत्र के कुछ संस्थापकों द्वारा भी एआई को अतीत में बार-बार अपमानित किया गया है। उदाहरण के लिए, जॉन मैकार्थी (जिन्होंने “कृत्रिम बुद्धिमत्ता” शब्द गढ़ा था), मार्विन मिंस्की, नाथनियल रोचेस्टर और क्लाउड शैनन ने पत्थर के युग के कंप्यूटरों के साथ दो महीनों के दौरान क्या पूरा किया जा सकता है।

इस बारे में आशावादी पूर्वानुमान लिखा है:-

“हम प्रस्ताव करते हैं कि 2 महीने , डार्टमाउथ कॉलेज में 1956 की गर्मियों के दौरान कृत्रिम बुद्धिमत्ता का अध्ययन किया जाता है […] यह जानने का प्रयास किया जाएगा कि कैसे मशीनों का उपयोग भाषा बनाने के लिए, अमूर्तता और अवधारणाओं को बनाने के लिए किया जाता है, अब मनुष्यों के लिए आरक्षित प्रकार की समस्याओं को हल करें और खुद को सुधारें। हमें लगता है कि अगर एक सावधानी से चुने गए वैज्ञानिकों का समूह गर्मियों में एक साथ काम करता है, तो इनमें से एक या एक से अधिक समस्याओं का सामना करना पड़ सकता है। ”

दूसरी ओर, एक लोकप्रिय जवाबी मिथक यह है कि हम जानते हैं कि हमें इस सदी में अलौकिक ऐ नहीं मिलेगा। शोधकर्ताओं ने अनुमान लगाया है कि हम अलौकिक ऐ से कितनी दूर हैं, लेकिन हम निश्चित रूप से इस विश्वास के साथ नहीं कह सकते हैं कि इस सदी की संभावना शून्य है, इस तरह के तकनीकी-संदेहवादी पूर्वानुमानों के निराशाजनक ट्रैक रिकॉर्ड को देखते हुए।

उदाहरण के लिए, अर्नेस्ट रदरफोर्ड, यकीनन अपने समय का सबसे बड़ा परमाणु भौतिक विज्ञानी था, ने 1933 में कहा – परमाणु श्रृंखला प्रतिक्रिया के स्ज़ीलार्ड के आविष्कार से 24 घंटे से कम पहले – वह परमाणु ऊर्जा “चंद्रमा” थी। और एस्ट्रोनॉमर रॉयल रिचर्ड वूली ने 1956 में इंटरप्लेनेटरी यात्रा को “बिल्टर बिलग” कहा। इस मिथक का सबसे चरम रूप यह है कि अलौकिक ऐ कभी नहीं आएगा क्योंकि यह शारीरिक रूप से असंभव है। तथापि,

एआई शोधकर्ताओं से कई सर्वेक्षणों में पूछा गया है कि अब से कितने साल बाद वे सोचते हैं कि हमारे पास कम से कम 50% संभावना के साथ मानव-स्तरीय एआई होगा। इन सभी सर्वेक्षणों का एक ही निष्कर्ष है: दुनिया के प्रमुख विशेषज्ञ असहमत हैं, इसलिए हम आसानी से नहीं जानते। उदाहरण के लिए, 2015 प्यूर्टो रिको एआई सम्मेलन में एआई शोधकर्ताओं के ऐसे सर्वेक्षण में , औसत (औसत) उत्तर 2045 तक था, लेकिन कुछ शोधकर्ताओं ने सैकड़ों साल या उससे अधिक का अनुमान लगाया।

एक संबंधित मिथक यह भी है कि एआई के बारे में चिंता करने वाले लोग सोचते हैं कि यह केवल कुछ साल दूर है। वास्तव में, रिकॉर्ड के अधिकांश लोगों को अलौकिक ऐ के बारे में चिंता है कि यह अभी भी कम से कम दशकों दूर है। लेकिन वे तर्क देते हैं कि जब तक हम 100% निश्चित नहीं हैं कि यह इस सदी में नहीं होगा, तब तक सुरक्षा अनुसंधान शुरू करने के लिए स्मार्ट होना आवश्यक है। मानव-स्तरीय AI से जुड़ी कई सुरक्षा समस्याएं इतनी कठिन हैं कि उन्हें हल करने में दशकों लग सकते हैं। इसलिए यह उचित है कि रेड बुल पीने वाले कुछ प्रोग्रामर एक स्विच ऑन करने का निर्णय लेने से पहले रात के बजाय अब उन पर शोध शुरू करें।

विवाद मिथक:-

एक और आम गलतफहमी यह है कि एआई के बारे में चिंता करने वाले और एआई सुरक्षा अनुसंधान की वकालत करने वाले केवल वही लोग हैं जो एआई के बारे में ज्यादा नहीं जानते हैं। जब मानक एआई पाठ्यपुस्तक के लेखक स्टुअर्ट रसेल ने अपने प्यूर्टो रिको वार्ता के दौरान इसका उल्लेख किया , तो दर्शक जोर से हंस पड़े। एक संबंधित गलत धारणा यह है कि एआई सुरक्षा अनुसंधान का समर्थन करना बेहद विवादास्पद है। वास्तव में, एआई सुरक्षा अनुसंधान में एक मामूली निवेश का समर्थन करने के लिए, लोगों को यह आश्वस्त होने की आवश्यकता नहीं है कि जोखिम अधिक हैं, केवल गैर-नगण्य हैं – जिस तरह होम इंश्योरेंस में एक मामूली निवेश घर की गैर-नगण्य संभावना द्वारा उचित है जल रहा है।

यह हो सकता है कि मीडिया ने एआई सुरक्षा बहस को वास्तव में जितना विवादित है उससे अधिक विवादास्पद बना दिया है। सब के बाद, भय बेचता है, और आसन्न कयामत घोषित करने के लिए आउट-ऑफ-संदर्भ उद्धरण का उपयोग करने वाले लेख, बारीक और संतुलित लोगों की तुलना में अधिक क्लिक उत्पन्न कर सकते हैं। नतीजतन, दो लोग जो केवल मीडिया कोट्स से एक-दूसरे की स्थिति के बारे में जानते हैं, वे यह सोच सकते हैं कि वे वास्तव में जितना वे करते हैं उससे अधिक असहमत हैं।

उदाहरण के लिए, एक तकनीकी-संशयवादी जो केवल एक ब्रिटिश टैब्लॉइड में बिल गेट्स की स्थिति के बारे में पढ़ता है, वह गलती से सोच सकता है कि गेट्स सुपरिनटेंडेंस को आसन्न मानते हैं। इसी तरह, लाभकारी-एआई आंदोलन में कोई व्यक्ति जो एंड्रयू एनजी की स्थिति के बारे में कुछ भी नहीं जानता है, मंगल पर ओवरपॉपुलेशन के बारे में अपने उद्धरण के अलावा गलती से सोच सकता है कि वह एआई सुरक्षा की परवाह नहीं करता है, जबकि वास्तव में, वह करता है। क्रूक्स बस इतना है कि क्योंकि Ng की समयरेखा का अनुमान लंबा है,

मिथक अलौकिक ऐ के जोखिम के बारे में:-

कई एआई शोधकर्ता इस शीर्षक को देखते हुए अपनी आँखें रोल करते हैं : ” स्टीफन हॉकिंग चेतावनी देते हैं कि रोबोट का उदय मानवता के लिए विनाशकारी हो सकता है।” और जितने भी इसी तरह के लेख उन्होंने देखे हैं उनकी गिनती खत्म हो गई है। आमतौर पर, ये लेख एक दुष्ट दिखने वाले रोबोट द्वारा हथियार के साथ होते हैं, और वे सुझाव देते हैं कि हमें रोबोट के बारे में चिंता करनी चाहिए और हमें मारना चाहिए क्योंकि वे सचेत और / या बुरे हो गए हैं। एक हल्के नोट पर, ऐसे लेख वास्तव में प्रभावशाली होते हैं, क्योंकि वे सफलतापूर्वक उस परिदृश्य को संक्षेप में प्रस्तुत करते हैं जिसके बारे में एआई शोधकर्ता चिंता नहीं करते हैं। यह परिदृश्य तीन अलग-अलग गलत धारणाओं को जोड़ती है: चेतना , बुराई और रोबोट के बारे में चिंता ।

यदि आप सड़क पर गाड़ी चलाते हैं, तो आपको रंगों, ध्वनियों आदि का अनुभव होता है । लेकिन क्या सेल्फ-ड्राइविंग कार में व्यक्तिपरक अनुभव होता है? क्या यह एक सेल्फ ड्राइविंग कार होने के लिए कुछ भी महसूस करता है? हालांकि चेतना का यह रहस्य अपने आप में दिलचस्प है, यह एआई जोखिम के लिए अप्रासंगिक है। यदि आप एक चालक रहित कार से टकरा जाते हैं, तो इससे आपको कोई फर्क नहीं पड़ता है कि क्या यह विषयगत रूप से सचेत है। उसी तरह, जो हमें इंसानों को प्रभावित करेगा, वह है जो अधीक्षक एआई करता है , न कि यह कैसे विषयगत रूप से महसूस करता है ।

मशीनों के बुरे होने का डर एक और लाल दाद है:-

असली चिंता पुरुषत्व नहीं है, बल्कि क्षमता है। एक अधीक्षक एआई अपने लक्ष्यों को प्राप्त करने में बहुत अच्छा है, जो कुछ भी हो, इसलिए हमें यह सुनिश्चित करने की आवश्यकता है कि इसके लक्ष्यों को हमारे साथ जोड़ दिया जाए। मनुष्य आम तौर पर चींटियों से नफरत नहीं करते हैं, लेकिन हम उनकी तुलना में अधिक बुद्धिमान हैं – इसलिए अगर हम एक पनबिजली बांध बनाना चाहते हैं और वहां एक एंथिल है, तो चींटियों के लिए बहुत बुरा है। लाभकारी-एआई आंदोलन उन चींटियों की स्थिति में मानवता को रखने से बचना चाहता है।

चेतना भ्रांति मिथक से संबंधित है कि मशीनों में लक्ष्य नहीं हो सकते। मशीनों में स्पष्ट रूप से लक्ष्य-उन्मुख व्यवहार को प्रदर्शित करने की संकीर्ण भावना में लक्ष्य हो सकते हैं: किसी लक्ष्य को हिट करने के लक्ष्य के रूप में एक गर्मी चाहने वाली मिसाइल के व्यवहार को सबसे अधिक आर्थिक रूप से समझाया गया है। यदि आपको ऐसी मशीन से खतरा महसूस होता है, जिसके लक्ष्य आपके साथ गलत हैं, तो यह इस संकीर्ण अर्थ में उसके लक्ष्य हैं जो आपको परेशान करते हैं, न कि यह कि मशीन सचेत है और उद्देश्य की भावना का अनुभव करती है। अगर वह गर्मी चाहने वाली मिसाइल आपका पीछा कर रही थी, तो आप शायद यह नहीं कहेंगे: “मैं चिंतित नहीं हूँ, क्योंकि मशीनों में लक्ष्य नहीं हो सकते!”

मैं रोडनी ब्रूक्स और अन्य रोबोटिक्स अग्रदूतों के प्रति सहानुभूति रखता हूं जो डराने-धमकाने वाले टैबलॉयड द्वारा गलत तरीके से महसूस करते हैं, क्योंकि कुछ पत्रकारों को रोबोट पर अस्पष्ट रूप से फिक्सेशन लगता है और लाल चमकदार आंखों वाले दुष्ट दिखने वाले धातु के राक्षसों के साथ उनके कई लेखों को सुशोभित करते हैं। वास्तव में, लाभकारी-एआई आंदोलन की मुख्य चिंता रोबोट के साथ नहीं है, बल्कि खुद खुफिया के साथ है: विशेष रूप से, खुफिया जिनके लक्ष्य हमारे साथ गलत हैं। हमें परेशान करने के लिए, इस तरह के मिथ्या अभिमानी अलौकिक बुद्धिमत्ता की जरूरत नहीं है, केवल एक इंटरनेट कनेक्शन – यह वित्तीय बाजारों को आउटसोर्स कर सकता है, मानव शोधकर्ताओं का आविष्कार कर सकता है, मानव नेताओं का हेर-फेर कर सकता है, और हथियार विकसित कर सकता है जिसे हम समझ भी नहीं सकते हैं। भले ही रोबोट बनाना शारीरिक रूप से असंभव हो,

रोबोट की ग़लतफ़हमी उस मिथक से संबंधित है जो मशीनें मनुष्यों को नियंत्रित नहीं कर सकती हैं। खुफिया नियंत्रण सक्षम करता है: मनुष्य बाघों को नियंत्रित करते हैं क्योंकि हम मजबूत नहीं हैं, लेकिन क्योंकि हम चालाक हैं। इसका मतलब यह है कि अगर हम अपने ग्रह पर अपनी स्थिति को सबसे चतुर बनाते हैं, तो संभव है कि हम नियंत्रण को भी रोक सकते हैं।

दिलचस्प विवाद:-

उपर्युक्त भ्रांतियों पर समय बर्बाद न करने से हम सच्चे और दिलचस्प विवादों पर ध्यान केंद्रित कर सकते हैं जहाँ विशेषज्ञ भी असहमत हैं। आप कैसा भविष्य चाहते हैं? क्या हमें घातक स्वायत्त हथियारों का विकास करना चाहिए? आप नौकरी स्वचालन के साथ क्या करना चाहेंगे? आज के बच्चों को आप क्या करियर सलाह देंगे? क्या आप पुराने लोगों के स्थान पर नई नौकरी पसंद करते हैं, या एक बेरोजगार समाज जहां हर कोई अवकाश और मशीन-निर्मित धन का आनंद लेता है?

आगे सड़क के नीचे, क्या आप चाहेंगे कि हम अपने जीवन को बनाए और इसे अपने ब्रह्मांड के माध्यम से फैलाएं? क्या हम बुद्धिमान मशीनों को नियंत्रित करेंगे या वे हमें नियंत्रित करेंगे? क्या बुद्धिमान मशीनें हमारे साथ, हमारे साथ सह-अस्तित्व में आएंगी या हमारे साथ विलीन हो जाएंगी? कृत्रिम बुद्धिमत्ता के युग में मानव होने का क्या अर्थ होगा? आप इसका क्या मतलब निकालना चाहेंगे, और हम भविष्य कैसे बना सकते हैं? कृपया बातचीत में शामिल हों!

Share on Social Media
1 Comment
  1. Ja_existe_o_viagra_generico says

    Thank you for your blog post.Really thank you! Awesome.ja existe o viagra generico

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More