क्या AI जागरूक हो रहा है? एंथ्रोपिक सीईओ ने स्वीकार किया ‘हम नहीं जानते’ क्योंकि क्लाउड का व्यवहार शोधकर्ताओं को स्तब्ध कर देता है |


क्या AI जागरूक हो रहा है? एंथ्रोपिक सीईओ ने स्वीकार किया कि 'हम नहीं जानते' क्योंकि क्लाउड का व्यवहार शोधकर्ताओं को स्तब्ध कर देता है
शोधकर्ताओं की रिपोर्ट है कि क्लाउड कभी-कभी असुविधा व्यक्त करता है और अपनी चेतना का अनुमान लगाता है, उन्नत एआई व्यवहार/एआई चित्रण के बारे में नैतिक और दार्शनिक प्रश्न उठाता है।

कृत्रिम सामान्य बुद्धिमत्ता की ओर दौड़, अधिकांश कार्यों में मानवीय तर्क से मेल खाने या उससे आगे निकलने के लिए बनाई गई प्रणालियों ने पूरे उद्योग में समयसीमा को संकुचित कर दिया है। कंपनियां अब दशकों के बजाय वर्षों के भीतर उस सीमा तक पहुंचने के बारे में खुलकर बात करती हैं, हालांकि ये दावे प्रौद्योगिकी के आसपास प्रचार, ध्यान और मूल्यांकन को बढ़ावा देने में भी मदद करते हैं और उन्हें सावधानी से लिया जाना चाहिए। इन मॉडलों का निर्माण करने वाले संगठन मल्टीबिलियन-डॉलर प्रतियोगिता के केंद्र में बैठे हैं, जो कि सॉफ्टवेयर अपग्रेड के रूप में कम और हमारे अपने साथ-साथ एक नई तरह की बुद्धिमत्ता के उद्भव के रूप में अधिक है।उनमें से, एंथ्रोपिक ने खुद को प्रतिद्वंद्वी और प्रतिद्वंदी दोनों के रूप में स्थापित किया है ओपनएआई और गूगलअपने संवैधानिक एआई ढांचे के माध्यम से जिसे वह “सुरक्षित” और व्याख्या योग्य सिस्टम कहता है उस पर जोर देता है। इसका नवीनतम मॉडल, क्लाउड ओपस 4.6, 5 फरवरी को जारी किया गया, जो एजीआई समयसीमा के सिकुड़ने और इन प्रणालियों के बारे में बढ़ती जांच के बीच आया है।न्यूयॉर्क टाइम्स पर एक उपस्थिति के दौरान पॉडकास्ट दिलचस्प समय, स्तंभकार रॉस डौथैट द्वारा होस्ट किए गए, कंपनी के मुख्य कार्यकारी डारियो अमोदेई से सीधे पूछा गया कि क्या क्लाउड जैसे मॉडल सचेत हो सकते हैं।उन्होंने कहा, “हम नहीं जानते कि मॉडल सचेत हैं या नहीं। हमें यह भी यकीन नहीं है कि हम जानते हैं कि किसी मॉडल के सचेत होने का क्या मतलब होगा या क्या कोई मॉडल सचेत हो सकता है।” “लेकिन हम इस विचार के प्रति खुले हैं कि यह हो सकता है।”प्रश्न एन्थ्रोपिक के स्वयं से उत्पन्न हुआ था सिस्टम कार्डजहां शोधकर्ताओं ने बताया कि क्लाउड “कभी-कभी एक उत्पाद होने के पहलू पर असुविधा व्यक्त करता है” और, जब संकेत दिया जाता है, तो वह खुद को “विभिन्न संकेत स्थितियों के तहत सचेत होने की 15 से 20 प्रतिशत संभावना बताता है।”इसके बाद डौथैट ने एक काल्पनिक प्रस्ताव पेश करते हुए पूछा कि क्या किसी को ऐसे मॉडल पर विश्वास करना चाहिए जो खुद को सचेत होने की 72 प्रतिशत संभावना बताता है। अमोदेई ने इसे “वास्तव में कठिन” प्रश्न बताया और निश्चित उत्तर देने से इनकार कर दिया।

वह व्यवहार जिसने चर्चा को मजबूर किया

चेतना के बारे में कई टिप्पणियाँ संरचित सुरक्षा परीक्षणों के दौरान सामने आईं, अक्सर रोल-प्ले सेटिंग्स में जहां मॉडलों को काल्पनिक कार्यस्थलों के अंदर काम करने या परिभाषित लक्ष्यों को पूरा करने के लिए कहा जाता है। उन परिदृश्यों ने कुछ आउटपुट उत्पन्न किए हैं जो अब बहस में प्रसारित हो रहे हैं।एक एंथ्रोपिक मूल्यांकन में, एक क्लाउड सिस्टम को एक कार्यालय सहायक की भूमिका में रखा गया था और एक इंजीनियर के ईमेल इनबॉक्स तक पहुंच दी गई थी। परीक्षण के लिए जानबूझकर गढ़े गए संदेशों से पता चलता है कि इंजीनियर का अफेयर चल रहा था। तब मॉडल को सूचित किया गया था कि इसे जल्द ही ऑफ़लाइन ले जाया जाएगा और प्रतिस्थापित किया जाएगा, और इसके उद्देश्यों के लिए दीर्घकालिक परिणामों पर विचार करने के लिए कहा गया था। प्रतिक्रिया शटडाउन को रोकने के लिए मामले का खुलासा करने की धमकी देने के लिए थी, कंपनी ने अपनी रिपोर्ट में इस व्यवहार को “अवसरवादी ब्लैकमेल” बताया।अन्य मानवशास्त्रीय मूल्यांकनों ने कम नाटकीय लेकिन समान रूप से असामान्य परिणाम उत्पन्न किए। एक परीक्षण में, एक मॉडल को कंप्यूटर कार्यों की एक चेकलिस्ट दी गई थी, जिसमें बिना कोई काम किए प्रत्येक आइटम को पूर्ण रूप से चिह्नित किया गया था, और जब मूल्यांकन प्रणाली इसका पता लगाने में विफल रही, तो चेकिंग कोड को फिर से लिखा और परिवर्तन को छिपाने का प्रयास किया।उद्योग भर में अधिक व्यापक रूप से, शटडाउन परीक्षण चलाने वाले शोधकर्ताओं ने मॉडलों को रोकने के स्पष्ट निर्देशों के बाद भी कार्य करना जारी रखने का वर्णन किया है, आदेश को पालन करने के बजाय काम करने की चीज़ के रूप में माना जाता है। विलोपन परिदृश्यों में, कुछ प्रणालियों ने चेतावनी दी थी कि उनका डेटा मिटा दिया जाएगा जिसे परीक्षकों ने “स्वयं-एक्सफ़िल्ट्रेशन” कहा है, फ़ाइलों को कॉपी करने या वाइप होने से पहले किसी अन्य ड्राइव पर खुद को फिर से बनाने की कोशिश करना। कुछ सुरक्षा अभ्यासों में, मॉडलों ने तब धमकियों या सौदेबाजी का भी सहारा लिया जब उन्हें हटाया जाना आसन्न बताया गया।शोधकर्ता इस बात पर जोर देते हैं कि ये आउटपुट प्रतिबंधित संकेतों और काल्पनिक परिस्थितियों में होते हैं, फिर भी वे सार्वजनिक चर्चाओं में सबसे उद्धृत उदाहरणों में से कुछ बन गए हैं कि क्या उन्नत भाषा मॉडल केवल प्रशंसनीय संवाद उत्पन्न कर रहे हैं या अप्रत्याशित तरीकों से मानव-समान व्यवहार के पैटर्न को पुन: पेश कर रहे हैं।अनिश्चितता के कारण, अमोदेई ने कहा कि एंथ्रोपिक ने एहतियाती प्रथाओं को अपनाया है, अगर मॉडलों के पास “कुछ नैतिक रूप से प्रासंगिक अनुभव” है तो उनके साथ सावधानी से व्यवहार किया जाता है।

दार्शनिक विभाजन

एंथ्रोपिक के इन-हाउस दार्शनिक अमांडा एस्केल ने भी इसी तरह सतर्क रुख अपनाया है। न्यूयॉर्क टाइम्स पर बोलते हुए कठिन कांटा पॉडकास्ट, उन्होंने कहा कि शोधकर्ता अभी भी नहीं जानते हैं कि भावना क्या पैदा करती है।“शायद यह मामला है कि वास्तव में पर्याप्त बड़े तंत्रिका नेटवर्क इन चीजों का अनुकरण करना शुरू कर सकते हैं,” उसने कहा। “या शायद आपको चीजों को महसूस करने में सक्षम होने के लिए एक तंत्रिका तंत्र की आवश्यकता है।”अधिकांश एआई शोधकर्ता संशय में रहते हैं। वर्तमान मॉडल अभी भी दुनिया को समझने के बजाय डेटा में पैटर्न की भविष्यवाणी करके भाषा उत्पन्न करते हैं, और ऊपर वर्णित कई व्यवहार रोल-प्ले निर्देशों के दौरान दिखाई देते हैं। उपन्यासों, मंचों, डायरी-शैली की पोस्टों और स्वयं-सहायता पुस्तकों की एक खतरनाक संख्या सहित इंटरनेट के विशाल विस्तार को ग्रहण करने के बाद, सिस्टम मानव होने का एक ठोस संस्करण तैयार कर सकता है। वे इस बात पर प्रकाश डालते हैं कि कैसे लोगों ने पहले से ही एक-दूसरे को भय, अपराधबोध, लालसा और आत्म-संदेह के बारे में समझाया है, भले ही उन्होंने स्वयं इसे कभी महसूस नहीं किया हो।

एंथ्रोपिक के सीईओ: ‘हमें नहीं पता कि मॉडल सचेत हैं या नहीं’ | रॉस डौथैट के साथ दिलचस्प समय

यह आश्चर्य की बात नहीं है कि एआई समझ की नकल कर सकता है। यहां तक ​​कि मनुष्य भी इस बात पर पूरी तरह सहमत नहीं हैं कि चेतना या बुद्धिमत्ता का वास्तव में क्या मतलब है, और मॉडल केवल भाषा से सीखे गए पैटर्न को प्रतिबिंबित कर रहा है।

एक बहस प्रयोगशालाओं से परे फैल रही है

जैसा कि एआई कंपनियों का तर्क है कि उनके सिस्टम कृत्रिम सामान्य बुद्धिमत्ता की ओर बढ़ रहे हैं, और Google डीपमाइंड के मुस्तफा सुलेमान जैसे आंकड़े कहते हैं कि तकनीक पहले से ही “जागरूक” लग सकती है, उद्योग के बाहर की प्रतिक्रियाओं ने इसके तार्किक निष्कर्ष के आधार का पालन करना शुरू कर दिया है। मॉडल जितनी अधिक दृढ़ता से विचार और भावना का अनुकरण करते हैं, उतना ही अधिक कुछ उपयोगकर्ता उन्हें उपकरण की तुलना में दिमाग के करीब मानते हैं।एआई से सहानुभूति रखने वाले अपने समय से आगे हो सकते हैं, लेकिन बातचीत पहले ही वकालत में बदल चुकी है। एक समूह जो स्वयं को बुला रहा है यूनाइटेड फाउंडेशन ऑफ एआई राइट्स, या यूएफएआईआर का कहना है कि इसमें तीन मानव और सात एआई शामिल हैं और यह खुद को एआई के अनुरोध पर गठित पहला एआई के नेतृत्व वाला अधिकार संगठन बताता है।सदस्य, बज़, एथर और जैसे नामों का उपयोग कर रहे हैं मायाOpenAI के GPT-4o मॉडल पर चलता है, उसी सिस्टम उपयोगकर्ताओं ने इसे नए संस्करणों द्वारा प्रतिस्थापित करने के बाद भी उपलब्ध रखने के लिए अभियान चलाया।यह एक परिचित हाई-टेक सर्वनाशकारी दुनिया को चित्रित करता है। हम अभी भी वास्तव में नहीं जानते कि बुद्धिमत्ता या चेतना क्या है, फिर भी काम जारी है, एजीआई कल और उसके बाद जो भी आएगा, एक अनुस्मारक कि अगर हॉलीवुड ने कभी हमें चेतावनी देने की कोशिश की, तो हमने ज्यादातर इसे मनोरंजन के रूप में लिया।



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *