क्या आपको है ‘डर्टी बम’ की जानकारी? एंथ्रोपिक और ओपनएआई द्वारा नए कर्मचारियों से पूछा जा रहा विचित्र प्रश्न | विश्व समाचार
यदि आप ऐसे व्यक्ति हैं जो समझते हैं कि खतरनाक हथियार कैसे डिजाइन या संभाले जाते हैं, तो कृत्रिम बुद्धिमत्ता उद्योग आपकी तलाश कर रहा होगा। एक आश्चर्यजनक मोड़ में, अग्रणी प्रौद्योगिकी कंपनियां अब रासायनिक हथियारों, विस्फोटकों और रेडियोलॉजिकल खतरों के विशेषज्ञों की भर्ती कर रही हैं। लक्ष्य ऐसे हथियार बनाना नहीं है बल्कि एआई टूल्स को दूसरों की मदद करने से रोकना है। बीबीसी की एक रिपोर्ट के अनुसार, अमेरिकी एआई फर्म एंथ्रोपिक ने रासायनिक हथियार रक्षा और गंदे बमों में विशेषज्ञता की आवश्यकता वाली भूमिका का विज्ञापन किया है, जबकि चैटजीपीटी डेवलपर ओपनएआई जैविक और रासायनिक जोखिमों पर ध्यान केंद्रित करने वाले शोधकर्ताओं के लिए $455,000 तक के वेतन की पेशकश कर रहा है।
एंथ्रोपिक और चैटजीपीटी गंदे बमों के विशेषज्ञों को क्यों नियुक्त कर रहे हैं?
जैसे-जैसे एआई सिस्टम जटिल तकनीकी सवालों का जवाब देने में सक्षम होते जा रहे हैं, कंपनियों को एक नई चुनौती का सामना करना पड़ रहा है। यदि कोई हथियार बनाने के बारे में जानकारी प्राप्त करने के लिए इन प्रणालियों का उपयोग करने का प्रयास करता है तो क्या होगा?एंथ्रोपिक की नौकरी सूची में रासायनिक हथियारों या विस्फोटक रक्षा में अनुभव के साथ-साथ रेडियोलॉजिकल फैलाव उपकरणों के ज्ञान वाले उम्मीदवारों की तलाश है, जिन्हें आमतौर पर गंदे बम के रूप में जाना जाता है। कंपनी का कहना है कि भूमिका का उद्देश्य यह सुनिश्चित करना है कि उसके एआई मॉडल को हानिकारक निर्देश उत्पन्न करने में हेरफेर नहीं किया जा सके।बीबीसी के अनुसार, विशेषज्ञ उपयोगकर्ताओं को खतरनाक जानकारी निकालने से रोकने के लिए डिज़ाइन की गई सुरक्षा नीतियों और तकनीकी रेलिंग को मजबूत करने में मदद करेगा।एंथ्रोपिक इस दृष्टिकोण को अपनाने वाली एकमात्र कंपनी नहीं है। चैटजीपीटी के डेवलपर ओपनएआई ने जैविक और रासायनिक जोखिमों में विशेषज्ञता वाले एक शोधकर्ता के लिए एक पद का भी विज्ञापन किया है।भूमिका इस बात का अध्ययन करने पर केंद्रित है कि कैसे उन्नत एआई मॉडल का संभावित रूप से दुरुपयोग किया जा सकता है और ऐसे व्यवहार को रोकने के लिए सिस्टम विकसित किया जा सकता है। कंपनी उन विशेषज्ञों के लिए $455,000 तक वेतन की पेशकश कर रही है जो इन जोखिमों से निपटने में मदद कर सकते हैं।नियुक्ति एआई उद्योग के भीतर बढ़ती मान्यता को दर्शाती है कि यदि उचित सुरक्षा उपाय नहीं किए गए तो शक्तिशाली भाषा मॉडल अनजाने में अत्यधिक संवेदनशील तकनीकी ज्ञान उत्पन्न कर सकते हैं।
विशेषज्ञ विनियामक अंतराल की चेतावनी देते हैं
जबकि कंपनियों का कहना है कि ये भूमिकाएँ सुरक्षा उपायों को मजबूत करने और दुरुपयोग को रोकने के लिए हैं, कुछ शोधकर्ताओं का तर्क है कि संवेदनशील हथियार-संबंधी ज्ञान के लिए एआई सिस्टम को उजागर करने के व्यापक निहितार्थ करीब से जांच के लायक हैं। जैसे-जैसे एआई मॉडल जटिल तकनीकी जानकारी को संश्लेषित करने में सक्षम होते जा रहे हैं, विशेषज्ञ इस बात को लेकर चिंतित हैं कि क्या इस तरह के ज्ञान के सुरक्षा परीक्षण या मूल्यांकन का हिस्सा बनने के बाद दुरुपयोग के जोखिम को पूरी तरह से खत्म करना संभव है।प्रौद्योगिकी शोधकर्ता और बीबीसी के एआई डिकोडेड कार्यक्रम की सह-प्रस्तुतकर्ता डॉ. स्टेफ़नी हेयर ने सवाल किया है कि क्या एआई सिस्टम के लिए विस्फोटकों या रेडियोलॉजिकल हथियारों से संबंधित जानकारी के साथ बातचीत करना पूरी तरह से सुरक्षित है, भले ही इरादा सुरक्षात्मक रेलिंग बनाने का हो। वह यह भी नोट करती हैं कि वर्तमान में कोई समर्पित अंतरराष्ट्रीय संधि या नियामक ढांचा नहीं है जो यह नियंत्रित करे कि कृत्रिम बुद्धिमत्ता प्रणाली को ऐसे संवेदनशील ज्ञान को कैसे संभालना चाहिए।
एआई डेवलपर्स के लिए रेलिंग प्राथमिकता बनती जा रही है
एआई डेवलपर्स ने तेजी से चेतावनी दी है कि अगर उनकी तकनीक का दुरुपयोग किया गया तो वे गंभीर जोखिम पैदा कर सकते हैं। परिणामस्वरूप, कई कंपनियाँ सुरक्षा अनुसंधान में भारी निवेश कर रही हैं।एंथ्रोपिक ने पहले कहा है कि उसके एआई सिस्टम का इस्तेमाल स्वायत्त हथियारों या सामूहिक निगरानी में नहीं किया जाना चाहिए। इसके सह-संस्थापक डारियो अमोदेई ने तर्क दिया है कि प्रौद्योगिकी अभी भी ऐसे अनुप्रयोगों के लिए पर्याप्त विश्वसनीय नहीं है।रासायनिक हथियारों और विस्फोटक खतरों को समझने वाले विशेषज्ञों को काम पर रखकर, कंपनियां ऐसे सुरक्षा उपाय तैयार करने की उम्मीद करती हैं जो एआई को हानिकारक निर्देश उत्पन्न करने से रोकें, साथ ही प्रौद्योगिकी को अनुसंधान, शिक्षा और वैध समस्या-समाधान के लिए उपयोगी बनाए रखें।असामान्य नौकरी सूचियाँ एआई युग में बढ़ती वास्तविकता को दर्शाती हैं। जैसे-जैसे तकनीक अधिक शक्तिशाली होती जा रही है, चुनौती सिर्फ स्मार्ट सिस्टम बनाना नहीं है, बल्कि यह सुनिश्चित करना भी है कि उन्हें खतरनाक उपकरणों में नहीं बदला जा सके।