Breaking News

एलोन मस्क का कहना है कि कुछ हद तक संभावना है कि AI मानवता को ख़त्म कर देगा: ‘यह एक बच्चे को पालने जैसा है’

[ad_1]

एलोन मस्क ने चार दिवसीय एबंडेंस शिखर सम्मेलन के दौरान “ग्रेट एआई डिबेट” सेमिनार में कृत्रिम बुद्धिमत्ता (एआई) के जोखिमों के बारे में बात की। इस बात पर विचार करते हुए कि कैसे एआई लोगों के लिए खतरनाक हो सकता है, शायद 10 से 20 प्रतिशत के आसपास, उन्होंने कहा कि यह अभी भी जोखिम के लायक हो सकता है। विशेष बातों में जाने बिना उन्होंने कहा, “मुझे लगता है कि कुछ संभावना है कि यह मानवता को समाप्त कर देगा। मैं संभवतः ज्योफ हिंटन से सहमत हूं कि यह लगभग 10 प्रतिशत या 20 प्रतिशत या ऐसा ही कुछ है। मुझे लगता है कि संभावित सकारात्मक परिदृश्य नकारात्मक परिदृश्य पर भारी पड़ता है।”

स्पेसएक्स और टेस्ला के सीईओ और एक्स के मालिक एलन मस्क, जिन्हें पहले ट्विटर के नाम से जाना जाता था, पेरिस, फ्रांस में एक सम्मेलन में भाग लेते हैं। (रॉयटर्स)
स्पेसएक्स और टेस्ला के सीईओ और एक्स के मालिक एलन मस्क, जिन्हें पहले ट्विटर के नाम से जाना जाता था, पेरिस, फ्रांस में एक सम्मेलन में भाग लेते हैं। (रॉयटर्स)

पिछले नवंबर में, अरबपति ने कहा था कि संभावना है कि एआई खराब हो सकता है और इसलिए अधिक नियम होने चाहिए।

हिंदुस्तान टाइम्स – ब्रेकिंग न्यूज़ के लिए आपका सबसे तेज़ स्रोत! अभी पढ़ें।

एलन मस्क ने समिट में ये भी कहा कि 2030 तक AI लोगों से ज्यादा स्मार्ट हो जाएगा, इसलिए टेक्नोलॉजी के बुरे नतीजों को लेकर ज्यादा सावधान रहने की जरूरत है. सुपर-स्मार्ट एआई बनाने की तुलना वास्तव में स्मार्ट बच्चे के पालन-पोषण से करते हुए उन्होंने कहा कि एआई को हमेशा सच बोलना और जिज्ञासु रहना सिखाना महत्वपूर्ण है।

“आप एक तरह से एजीआई विकसित करते हैं। यह लगभग एक बच्चे को बड़ा करने जैसा है, लेकिन वह एक सुपर जीनियस की तरह है, एक भगवान जैसी बुद्धिमान बच्चे की तरह – और यह मायने रखता है कि आप बच्चे को कैसे बड़ा करते हैं,” उन्होंने कहा, “इनमें से एक मुझे लगता है कि एआई सुरक्षा के लिए जो चीजें अविश्वसनीय रूप से महत्वपूर्ण हैं, उनमें अधिकतम प्रकार की सत्य-खोज और जिज्ञासु एआई होना है।”

एलोन मस्क ने कहा कि एआई को सुरक्षित रखने की उनकी योजना सरल है: सुनिश्चित करें कि एआई हमेशा सच बोले क्योंकि अगर एक बार एआई झूठ बोलना सीख जाए तो उसे रोकना मुश्किल है।

[ad_2]

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *