कृत्रिम मेधा पर आधारित चैटजीपीटी को एक सुविधा के तौर पर इसलिए देखा गया था, ताकि जानकारी जुटाने के मामले में लोगों को आसानी हो। मुश्किल और जटिल सवालों का जवाब वह इंसानों की तरह दे। उसने ऐसा किया भी। मगर इस बात पर शायद गौर नहीं किया गया था कि इसे जिस स्वरूप में तैयार किया गया है, उसमें इसका बेजा इस्तेमाल भी आसानी से किया जा सकता है।
हालत यह है कि इसके दुरुपयोग की वजह से अब मनुष्य की मेधा ही नहीं, उसका जीवन भी खतरे में आ रहा है। हत्या और आत्महत्या के मामले में ‘चैटबाट’ के बढ़ते दुरुपयोग को गंभीरता से लेने की जरूरत है। हाल ही में कनाडा के एक स्कूल में हुई गोलीबारी में चैटजीपीटी के दुरुपयोग की खबर सामने आई है।
इस घटना में बुरी तरह जख्मी एक छात्रा के माता-पिता ने मुकदमे में आरोप लगाया कि ‘चैटबाट’ बनाने वाली ओपनएआइ को पहले से मालूम था कि चैटजीपीटी के जरिए हमलावर सामूहिक हत्या की योजना बना रहा था। इस मामले में ओपनएआइ का हैरान करने वाला जवाब है कि उसने हमलावर की गतिविधियों पर विचार किया था, पर पुलिस को इसकी सूचना नहीं दी। इससे साबित होता है कि चैटजीपीटी का दुरुपयोग किस खतरनाक स्तर पर पहुंच चुका है।
निराशा की बात है कि इस पर नियंत्रण के लिए कोई नियामक नहीं है। खास क्षमता से दक्ष चैटजीपीटी एक सलाहकार या सहयोगी की तरह काम करता है। यह व्यक्ति की मनोस्थिति के हिसाब से सवालों के जवाब देता है। हत्या या खुदकुशी के मामलों में इसके दुरुपयोग के कई मामले सामने आ चुके हैं।
विचित्र बात है कि ‘चैटबाट’ गलत कदम उठाने को सही ठहरा देता है और अपनी या दूसरों की जान लेने के तरीके बता देता है। मगर इस तरह की गतिविधियों की निगरानी नहीं होती हो, ऐसा संभव नहीं है। कनाडा में हुई गोलीबारी के मामले में ओपनएआइ को हमलावर की गतिविधियों के बारे में पता था।
अगर ऐसा है, तो समय रहते इसे रोकने के उपाय क्यों नहीं किए जा सकते हैं? तकनीक के सदुपयोग के साथ दुरुपयोग को रोकने की जवाबदेही तय नहीं की गई, तो आने वाले दिनों में इससे उपजने वाली स्थिति का बस अंदाजा ही लगाया जा सकता है।
