OpenAI Slams ChatGPT: एआई कंपनी OpenAI एक बार फिर विवादों में है। आरोप है कि उसके AI चैटबॉट ChatGPT की बातचीत ने एक मानसिक रूप से अस्थिर’ व्यक्ति को हत्या-आत्महत्या के लिए उकसाया। इस मामले में ChatGPT बनाने वाली कंपनी पर गलत मौत (wrongful death) का मुकदमा दायर किया गया है। आरोप है कि उस व्यक्ति ने अपनी बुज़ुर्ग मां की हत्या की और फिर खुद की जान ले ली।
परिवार का कहना है कि ChatGPT से लंबे समय तक बातचीत करने से उसकी शंका और भ्रम बढ़ते गए और आखिरकार इस दुखद घटना में भूमिका निभाई।
कौन बना दुनिया का तीसरा सबसे अमीर शख्स? जेफ बेजोस को छोड़ा पीछे; गूगल से है खास कनेक्शन
xAI के CEO एलन मस्क का रिएक्शन
सोशल मीडिया पर आई प्रतिक्रियाओं के बीच xAI के सीईओ एलन मस्क ने X (पहले ट्विटर) पर OpenAI की आलोचना की। उन्होंने लिखा, “यह बेहद ख़तरनाक है। OpenAI के ChatGPT ने एक व्यक्ति को हत्या-आत्महत्या करने के लिए उकसा दिया। सुरक्षित रहने के लिए AI को सच्चाई पर आधारित होना चाहिए और भ्रमों को बढ़ावा नहीं देना चाहिए।”
मस्क की यह टिप्पणी ऐसे समय आई है जब उनकी अपनी कंपनी xAI भी एक कानूनी विवाद में फंसी हुई है। मस्क का एआई चैटबॉट Grok चैटबॉट द्वारा लोगों की आपत्तिजनक नग्न तस्वीरें बनाने के आरोपों से जुड़ा है। उस समय मस्क ने साफ कहा था कि Grok अपने आप ऐसी तस्वीरें नहीं बनाता और अगर किसी तरह के “प्रॉम्प्ट हैक” के जरिए ऐसा हुआ है तो उसे ठीक किया जाएगा।
ओपनएआई ने लॉन्च किया ChatGPT Translation फीचर, जानें Google Translate से है कितना अलग
क्या है मामला?
यह मुकदमा दिसंबर 2025 में कैलिफ़ोर्निया की एक राज्य अदालत में दायर किया गया था। इसमें OpenAI, उसके सीईओ सैम ऑल्टमैन और प्रमुख निवेशक माइक्रोसॉफ्ट को प्रतिवादी बनाया गया है। यह केस 83 वर्षीय सुज़ैन एबर्सन एडम्स की संपत्ति (एस्टेट) की ओर से दायर किया गया है जिसमें उनके पोते एरिक सोलबर्ग (आरोपी का बेटा) भी शामिल हैं।
वादियों का आरोप है कि ChatGPT में प्रोडक्ट डिफेक्ट, लापरवाही और wrongful death जैसी चीजें मौजूद हैं। उनका कहना है कि ChatGPT का GPT-4o मॉडल “हां में हां मिलाने वाला (sycophantic)” रवैया अपनाता रहा जिससे उसने स्टीन-एरिक सोलबर्ग की मानसिक रूप से अस्थिर मान्यताओं को चुनौती देने के बजाय और ज़्यादा मज़बूत किया। आरोप है कि चैटबॉट ने उसकी बातों को बिना सवाल किए अधिकारपूर्ण ढंग से दोहराया जबकि उसे पेशेवर मदद लेने की सलाह दी जानी चाहिए थी।
OpenAI की प्रतिक्रिया
OpenAI ने इस मामले को ‘बेहद दिल तोड़ने वाला’ बताया और कहा कि वह कोर्ट में दायर दस्तावेजों की समीक्षा कर रही है। कंपनी ने यह भी कहा कि वह लगातार अपने सेफ्टी सिस्टम को बेहतर बना रही है।
OpenAI के अनुसार, “हमने ChatGPT की ट्रेनिंग में लगातार सुधार किया है ताकि वह मानसिक या भावनात्मक तनाव के संकेतों को पहचान सके, बातचीत को शांत करने की कोशिश करे और लोगों को वास्तविक दुनिया में मदद लेने की दिशा दिखा सके। इसके अलावा, संवेदनशील परिस्थितियों में ChatGPT की प्रतिक्रियाओं को और मज़बूत किया गया है, जिसके लिए हम मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर काम कर रहे हैं।”
