![28 FEB TO 6 MARCH | Weekly Current Affairs 2022 | 60 Important MCQ | Current Affairs tksingh #ssc](https://i.ytimg.com/vi/g4c8UlRamf4/hqdefault.jpg)
ऐसा लगता है कि दुनिया भर में किसी भी हाई-प्रोफाइल व्यक्ति ने आर्टिफिशियल इंटेलिजेंस वाली मशीनों की क्षमता पर टिप्पणी किए बिना एक महीने से ज्यादा नहीं गुजरा है। एलोन मस्क यह कहते हुए रिकॉर्ड पर हैं कि एआई सिस्टम "nukes की तुलना में संभावित रूप से अधिक खतरनाक हैं।" लेकिन वह केवल एक ही नहीं है, स्टीफन हॉकिंग भी चिंतित हैं, "पूर्ण कृत्रिम बुद्धि का विकास मानव जाति के अंत को रोक सकता है," प्रोफेसर हॉकिंग ने बीबीसी को बताया। "यह अपने आप ही बंद हो जाएगा, और कभी भी बढ़ती दर पर खुद को फिर से डिजाइन करेगा।" यहां तक कि बिल गेट्स चिंतित हैं, "मैं उस शिविर में हूं जो सुपर खुफिया के बारे में चिंतित है। मैं इस पर एलोन मस्क और कुछ अन्य लोगों से सहमत हूं और यह नहीं समझता कि कुछ लोग चिंतित नहीं हैं। "
वे सभी शक्तिशाली एआई सिस्टम के अनपेक्षित होने की संभावना, या संभावित विनाशकारी परिणाम के बारे में चिंता व्यक्त कर रहे हैं। जनवरी में वापस, एलोन मस्क ने एआई को मानवता के लिए फायदेमंद रखने के उद्देश्य से एक वैश्विक शोध कार्यक्रम चलाने के लिए फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) को $ 10 मिलियन का दान दिया।
आज फ्यूचर ऑफ लाइफ इंस्टीट्यूट ने घोषणा की है कि उसने दुनिया भर की 37 शोध टीमों को $ 7 मिलियन का फंड दिया है ताकि समाज एप का लाभ उठा सके, जबकि सर्वनाश और पृथ्वी पर जीवन के अंत से बचा जा सके।
टर्मिनेटर परिदृश्य के साथ खतरा यह नहीं है कि ऐसा होगा, लेकिन यह भविष्य के AI द्वारा सामने आए वास्तविक मुद्दों से ध्यान भटकाता है।
Jaan Tallin, FLI के संस्थापक सदस्यों में से एक और Skype के मूल संस्करण को लिखने वाले लड़के ने नए शोध के बारे में कहा, “उन्नत AI का निर्माण एक रॉकेट लॉन्च करने जैसा है। पहली चुनौती त्वरण को अधिकतम करना है, लेकिन एक बार जब यह गति पकड़ना शुरू कर देता है, तो आपको स्टीयरिंग पर ध्यान केंद्रित करने की भी आवश्यकता होती है। ”
37 परियोजनाओं में से तीन परियोजनाएं हैं जो एआई सिस्टम को सक्षम करने के लिए तकनीकों को देखेंगे, जो यह जानने के लिए कि मनुष्य हमारे व्यवहार को देखना पसंद करते हैं। इनमें से एक परियोजना यूसी बर्कले में चलाई जाएगी, और एक ऑक्सफोर्ड विश्वविद्यालय में होगी।
मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट में बेन्जा फॉलेंस्टीन को मानव मूल्यों के साथ गठबंधन किए गए अधीक्षण प्रणालियों के हितों को रखने के लिए अनुसंधान के तरीकों के लिए $ 250,000 मिल रहे हैं। जबकि कार्नेगी-मेलन विश्वविद्यालय से, मानेला वेलोसो की टीम को, एआई सिस्टम को मनुष्यों को अपने फैसले समझाने के तरीके को देखने के लिए $ 200,000 प्राप्त होंगे।
अन्य परियोजनाओं में एआई के आर्थिक प्रभावों को रखने के लिए स्टैनफोर्ड विश्वविद्यालय के माइकल वेब द्वारा एक अध्ययन शामिल है, एआई-संचालित हथियारों को "सार्थक मानव नियंत्रण" के तहत कैसे रखा जाए, और एआई के अध्ययन के लिए एक नया ऑक्सफोर्ड-कैम्ब्रिज अनुसंधान केंद्र। -समान नीति।
हॉलीवुड की बात करें तो एफएलआई सर्वनाश के साथ खुद को अलग करने की कोशिश कर रहा है। तथ्य से अलग करने के महत्व पर बल देने के लिए FLI उत्सुक है। "टर्मिनेटर परिदृश्य के साथ खतरा यह नहीं है कि ऐसा होगा, लेकिन यह कि यह भविष्य के AI द्वारा उत्पन्न वास्तविक मुद्दों से ध्यान भंग करता है", FLI अध्यक्ष मैक्स Tegmark ने कहा। "हम केंद्रित हैं, और आज के अनुदान द्वारा समर्थित 37 टीमों को ऐसे वास्तविक मुद्दों को हल करने में मदद करनी चाहिए।"
तुम क्या सोचते हो? अच्छी तरह से पैसा खर्च किया?