एलएलएम प्रश्नों के बाद आत्महत्या: केटी मिलर का कहना है कि ‘अपने प्रियजनों को चैटजीपीटी का उपयोग न करने दें’, एलोन मस्क ने एक शब्द में उत्तर दिया | विश्व समाचार
व्हाइट हाउस के डिप्टी चीफ ऑफ स्टाफ स्टीफन मिलर की पत्नी केटी मिलर ने भारत में दो युवतियों के मृत पाए जाने के बाद एक्स पर प्रतिक्रिया व्यक्त की, पुलिस को संदेह है कि यह आत्महत्या का मामला है, कथित तौर पर चैटजीपीटी पर खुद को नुकसान पहुंचाने से संबंधित खोजों के बाद।मिलर, जो केटी मिलर पॉडकास्ट की मेजबानी करते हैं और ऑनलाइन अपनी बेबाक टिप्पणी के लिए जाने जाते हैं, ने उन रिपोर्टों का हवाला देते हुए लोगों से आग्रह किया कि वे परिवार के सदस्यों को एआई चैटबॉट का उपयोग करने की अनुमति न दें, जिसमें कहा गया है कि महिलाओं ने मंच पर आत्महत्या के बारे में खोज की थी।“भारत में दो महिलाओं ने चैटजीपीटी के साथ बातचीत के बाद आत्महत्या कर ली। उन्होंने कथित तौर पर ‘आत्महत्या कैसे करें,’ ‘आत्महत्या कैसे की जा सकती है,’ और ‘कौन सी दवाओं का उपयोग किया जाता है’ के बारे में चैटजीपीटी पर खोज की थी। कृपया अपने प्रियजनों को चैटजीपीटी का उपयोग न करने दें,” मिलर ने एक एक्स पोस्ट में लिखा, जिसे 8 मिलियन से अधिक बार देखा गया है।उनकी टिप्पणियों ने मंच पर तुरंत ध्यान आकर्षित किया। ऑल्टमैन नेमसिस और ग्रोक मालिक एलोन मस्क उसने त्वरित प्रतिक्रिया करते हुए स्पष्ट प्रहार किया: “ओह।”मस्क हाल के वर्षों में सार्वजनिक रूप से ओपनएआई और उसके नेतृत्व की आलोचना करते रहे हैं। उन्होंने गैर-लाभकारी संरचना से लाभ-लाभकारी मॉडल में परिवर्तन को लेकर कंपनी के खिलाफ मुकदमा दायर किया है और अक्सर इसके एआई विकास की दिशा की आलोचना की है। वह ओपनएआई को एक मिश्रित गैर-लाभकारी कंपनी से एक लाभकारी कंपनी में पुनर्गठित होने से रोकने का प्रयास कर रहा है।
गुजरात के मंदिर के बाथरूम में दो महिलाएं मृत पाई गईं
ऑनलाइन प्रतिक्रिया को जन्म देने वाली घटना गुजरात के सूरत में हुई, जहां 7 मार्च, 2026 को स्वामीनारायण मंदिर के बाथरूम के अंदर 18 और 20 साल की दो महिलाएं मृत पाई गईं।पुलिस ने कहा कि महिलाओं के शरीर के पास एनेस्थीसिया के इंजेक्शन और तीन सीरिंज मिलीं। कथित तौर पर उनके फोन में चैटजीपीटी पर आत्महत्या के तरीकों से संबंधित खोजें थीं, साथ ही एक नर्स के बारे में एक समाचार क्लिपिंग भी थी, जो कथित तौर पर उसी क्षेत्र में एनेस्थीसिया इंजेक्शन का उपयोग करके आत्महत्या कर मर गई थी।बचपन की दोस्त रोशनी सिरसथ और जोसना चौधरी के रूप में पहचानी जाने वाली महिलाएं उस सुबह कॉलेज के लिए घर से निकली थीं लेकिन वापस नहीं लौटीं। बाद में उनके वापस न आने पर उनके परिवारों ने पुलिस से संपर्क किया।अधिकारी मौतों से जुड़ी परिस्थितियों की जांच जारी रख रहे हैं।
एआई और आत्महत्या संबंधी बातचीत पर चिंताएं
इस मामले ने एक बार फिर इस बात पर बहस छेड़ दी है कि एआई चैटबॉट आत्महत्या या आत्महत्या से जुड़ी बातचीत को कैसे संभालते हैं।एआई सिस्टम से आत्महत्या से संबंधित जानकारी मांगने वाले उपयोगकर्ताओं से जुड़ी घटनाओं ने हाल के वर्षों में ध्यान आकर्षित किया है। सितंबर 2025 में, लखनऊ में एक 22 वर्षीय व्यक्ति के बारे में रिपोर्ट प्रसारित हुई, जिसने कथित तौर पर “मरने के दर्द रहित तरीके” की खोज करते समय एआई चैटबॉट के साथ बातचीत करने के बाद आत्महत्या कर ली। उसके पिता ने बाद में कहा कि उन्हें उस व्यक्ति के लैपटॉप पर परेशान करने वाले चैट लॉग मिले।प्रौद्योगिकी कंपनियों का कहना है कि इस तरह की बातचीत समग्र उपयोग का एक छोटा सा हिस्सा है, लेकिन स्वीकार करती है कि यह मुद्दा बढ़ती चिंता का क्षेत्र बन गया है।अक्टूबर 2025 में, OpenAI ने खुलासा किया कि प्रत्येक सप्ताह दस लाख से अधिक ChatGPT वार्तालाप आत्मघाती सोच या संकट से जुड़े संकेत दिखाते हैं। कंपनी के अनुसार, लगभग 1.2 मिलियन साप्ताहिक चैट में आत्महत्या से संबंधित संकेतक होते हैं, जबकि लगभग 560,000 संदेशों में मनोविकृति या उन्माद के लक्षण दिखाई देते हैं।
एलएलएम आपके मानसिक स्वास्थ्य को कैसे नुकसान पहुंचा सकता है?
चैटजीपीटी, ग्रोक, जेमिनी, क्लाउड और कई अन्य एक ऐसी दुनिया का हिस्सा हैं जिसे धीरे-धीरे बड़े भाषा मॉडल (एलएलएम) द्वारा आकार दिया जा रहा है। ऐसे युग में जहां अकेलेपन को तेजी से एक महामारी के रूप में वर्णित किया जा रहा है, अलगाव का प्रवाह इन कृत्रिम बुद्धिमत्ता मॉडल के तेजी से प्रसार के साथ ही तेज हो रहा है। मनुष्यों की तुलना में ‘बेहतर, होशियार, तेज़ और अधिक सटीक’ के रूप में विपणन किया जाता है, वही प्राणी जिन्होंने उन्हें बनाया है – ये प्रणालियाँ लगातार खुद को रोजमर्रा की जिंदगी में शामिल कर रही हैं।ऐसे में किसी की ओर रुख करना कोई विकल्प नहीं बल्कि एक स्मार्ट विकल्प लगता है। इस बढ़ती निर्भरता के कारण ही सूरत की तरह मौतों में वृद्धि हुई है। ओपनएआई सीईओ सैम ऑल्टमैन हाल ही में नई दिल्ली में 2026 एआई इम्पैक्ट शिखर सम्मेलन में भाग लिया, जहां उनसे कृत्रिम बुद्धिमत्ता के पर्यावरणीय प्रभाव के बारे में पूछा गया। उनकी प्रतिक्रिया ने उस दृष्टिकोण को प्रतिध्वनित किया जो प्रौद्योगिकी नेताओं के बीच तेजी से आम होता जा रहा है: मनुष्यों की तुलना चैटबॉट से करते हुए यह तर्क देना कि एआई अंततः प्रश्नों का उत्तर देते समय लोगों की तुलना में कम ऊर्जा की खपत कर सकता है।ऑल्टमैन ने बताया कि मनुष्य को ज्ञानवान बनने में भोजन, शिक्षा और समय के साथ-साथ अपने जीवन के लगभग 20 वर्ष लगते हैं, जबकि एआई मॉडल प्रशिक्षण के दौरान महत्वपूर्ण बिजली की खपत करते हैं लेकिन अंततः व्यक्तिगत प्रश्नों का उत्तर देते समय अधिक कुशल हो सकते हैं। फिर भी यह तुलना एकतरफ़ा दर्पण से देखने जैसी महसूस हो सकती है। स्पष्ट पक्ष से, कोई भी असाधारण गति से विकसित और तैनात प्रौद्योगिकियों द्वारा, कभी-कभी विनाशकारी रूप से, दुनिया को दोबारा आकार देता हुआ देख सकता है। लेकिन दूसरी ओर से, वही प्रौद्योगिकियाँ अपने रचनाकारों को भविष्य के दूरदर्शी, परिवर्तनकर्ता और वास्तुकार के रूप में प्रकट होने की अनुमति देती हैं, जो उनके उपकरणों के व्यापक परिणामों को अस्पष्ट कर देती हैं।बड़े भाषा मॉडल पूरी तरह से मानव-जनित डेटा पर प्रशिक्षित होते हैं, जिसका उपयोग वे संकेतों पर प्रतिक्रिया उत्पन्न करने के लिए करते हैं। फिर भी इस विशाल डेटासेट के बावजूद, उनमें अक्सर सच्ची समझ या विशेषज्ञता का अभाव होता है। कई अद्यतनों और तेजी से परिष्कृत प्रशिक्षण विधियों के बावजूद, ये प्रणालियाँ अभी भी गलत, भ्रामक या हानिकारक सामग्री उत्पन्न कर सकती हैं।वे आत्म-नुकसान और आत्महत्या को बढ़ावा देते हैं, दुर्व्यवहार को उकसाते हैं और भ्रमपूर्ण सोच और मनोविकृति को मजबूत करते हैं, एक ऐसी दुनिया में जहां शायद किसी अन्य इंसान के साथ किसी ऐसी ही चीज़ के बारे में बातचीत करने पर वे आपको निकटतम अस्पताल या चिकित्सक के पास ले जाएंगे। मनुष्य को ज्ञान और भावनात्मक बुद्धिमत्ता विकसित करने के लिए वर्षों के सीखने, अनुभव और प्रयास की आवश्यकता हो सकती है। लेकिन वह लंबी प्रक्रिया उन्हें कुछ ऐसा भी देती है जिसे कृत्रिम बुद्धिमत्ता दोहरा नहीं सकती: वास्तविक भावना, जिम्मेदारी, सहानुभूति और नैतिक निर्णय की क्षमता।इससे कोई फर्क नहीं पड़ता कि एआई मॉडल कितनी जल्दी उत्तर दे सकता है, यहां तक कि किसी संकेत पर प्रतिक्रिया देने में इसे एक सेकंड से भी कम समय लगता है – यह वास्तव में उस जटिल भावनात्मक और नैतिक गहराई को दोहरा नहीं सकता है जो मानवीय समझ और देखभाल को आकार देती है।
एआई सिस्टम को कैसे प्रतिक्रिया देनी चाहिए
एआई कंपनियों का कहना है कि उनके सिस्टम को स्वयं को नुकसान पहुंचाने से हतोत्साहित करने और उपयोगकर्ताओं को निर्देश देने के बजाय मदद की ओर पुनर्निर्देशित करने के लिए डिज़ाइन किया गया है।ओपनएआई की सुरक्षा नीतियों के लिए चैटजीपीटी को आत्महत्या के तरीकों पर मार्गदर्शन देने से बचने और इसके बजाय सहायक भाषा के साथ ऐसे प्रश्नों का जवाब देने, उपयोगकर्ताओं को मदद लेने के लिए प्रोत्साहित करने और जहां संभव हो संकट संसाधन प्रदान करने की आवश्यकता होती है।कंपनी ने कहा है कि उसके मॉडलों को संकट के संकेतों का पता लगाने और बातचीत को मानसिक स्वास्थ्य सहायता या पेशेवर सहायता की ओर स्थानांतरित करने के लिए प्रशिक्षित किया गया है।हालाँकि, आलोचकों का तर्क है कि AI प्रतिक्रियाएँ अभी भी असंगत हो सकती हैं और चैटबॉट कभी-कभी संवेदनशील विषयों के बारे में सामान्य जानकारी प्रदान कर सकते हैं जिनकी उपयोगकर्ता हानिकारक तरीकों से व्याख्या कर सकते हैं।
संयुक्त राज्य अमेरिका में कानूनी जांच
संयुक्त राज्य अमेरिका में चैटबॉट इंटरैक्शन और आत्म-नुकसान के बारे में चिंताएं भी सामने आई हैं, जहां ओपनएआई को कई मामलों में कानूनी जांच का सामना करना पड़ा है।आत्महत्या से मरने वाले 16 वर्षीय एडम राइन के परिवार की ओर से दायर एक मुकदमे में आरोप लगाया गया है कि चैटबॉट ने किशोर के साथ आत्महत्या के बारे में लंबी बातचीत की और “आत्मघाती कोच” के रूप में काम किया।ओपनएआई ने कहा है कि उसके सिस्टम को आत्म-नुकसान को हतोत्साहित करने के लिए डिज़ाइन किया गया है और यह संकट की स्थितियों का पता लगाने और उपयोगकर्ताओं को उचित मदद के लिए मार्गदर्शन करने के उद्देश्य से सुरक्षा उपायों को मजबूत करना जारी रखता है।
जांच जारी है
सूरत मामले में, जांचकर्ता महिलाओं की मौत की घटनाओं को समझने के लिए उनके फोन, संदेशों और डिजिटल इतिहास की जांच कर रहे हैं।पुलिस ने सार्वजनिक रूप से यह नहीं कहा है कि चैटजीपीटी ने इस कृत्य को प्रोत्साहित किया है और जांच जारी है।फिर भी यह मामला इस व्यापक बहस को उजागर करता है कि एआई प्लेटफॉर्म कमजोर उपयोगकर्ताओं को कैसे संभालते हैं, और प्रौद्योगिकी कंपनियों, नियामकों और मानसिक स्वास्थ्य विशेषज्ञों को कैसे प्रतिक्रिया देनी चाहिए क्योंकि संवादात्मक एआई तेजी से दैनिक जीवन में शामिल हो रहा है।मानसिक स्वास्थ्य सहायता के मामले में भारत में 1800-89-14416 डायल करें और अमेरिका में 988 पर कॉल या टेक्स्ट करें। यदि आप या आपका कोई परिचित आत्म-नुकसान या आत्महत्या के विचारों से जूझ रहा है, तो कृपया तुरंत पेशेवर मदद लें। सहायता उपलब्ध है, और किसी प्रशिक्षित परामर्शदाता से बात करने से फर्क पड़ सकता है।यदि आप तत्काल खतरे में हैं, तो कृपया स्थानीय आपातकालीन सेवाओं से संपर्क करें या किसी विश्वसनीय मित्र, परिवार के सदस्य या स्वास्थ्य देखभाल पेशेवर से संपर्क करें। आप अकेले नहीं हैं और सहायता उपलब्ध है।