योगेश कुमार गोयल

कुछ अभिनेत्रियों के ‘डीपफेक’ वीडियो प्रसारित होने के बाद यह एक बड़ा राष्ट्रीय मुद्दा बन गया। अब सरकार इस मामले में सख्ती के मूड में है। केंद्रीय सूचना प्रौद्योगिकी मंत्रालय ने इस मुद्दे पर सोशल मीडिया मंचों से चर्चा की और आइटी अधिनियम के तहत कड़े कानून बनाने की घोषणा की है। दरअसल, कृत्रिम मेधा यानी आर्टिफिशियल इंटेलीजेंस (एआइ) की मदद से तैयार किए जा रहे डीपफेक वीडियो अब गले की फांस बनते जा रहे हैं।

विशेष ‘मशीन लर्निंग’ का किया जाता है इसमें इस्तेमाल

डीपफेक वीडियो और आडियो दोनों रूपों में हो सकता है। इसे एक विशेष ‘मशीन लर्निंग’ का इस्तेमाल करके बनाया जाता है, जिसे ‘डीप लर्निंग’ कहा जाता है। इसमें कंप्यूटर को दो वीडियो या फोटो दिए जाते हैं, जिन्हें देखकर वह खुद दोनों वीडियो या फोटो को एक जैसा बनाता है। यानी संपादित वीडियो में किसी अन्य के चेहरे को किसी अन्य के चेहरे से बदल दिया जाता है।

डीपफेक फोटो और वीडियो फर्जी होते हुए भी असली दिखते

इस तरह के फोटो तथा वीडियो में कुछ छिपी हुई परतें होती हैं, जिन्हें केवल ‘एडिटिंग साफ्टवेयर’ की मदद से देखा जा सकता है। यही कारण है कि डीपफेक फोटो और वीडियो फर्जी होते हुए भी असली नजर आते हैं। इन दिनों ऐसी कई वेबसाइटें और एप हैं, जहां लोग ऐसे वीडियो बना रहे हैं।

‘जनरेटिव एडवरसैरियल नेटवर्क’ का इस्तेमाल करती है तकनीक

डीपफेक सामग्री एक-दूसरे के साथ प्रतिस्पर्धा करते दो एल्गोरिदम (डिकोडर और एनकोडर) का उपयोग करके तैयार किए जाते हैं। इस बेहद पेचीदा तकनीक में फर्जी डिजिटल सामग्री बनाकर डिकोडर के जरिए यह पता लगाया जाता है कि सामग्री असली है या नकली। डिकोडर सामग्री को असली या नकली के रूप में सही ढंग से पहचानता और फिर उस जानकारी को एनकोडर को भेज देता है, ताकि अगले डीपफेक में गलतियां सुधार कर उसे और बेहतर किया जा सके। उसके बाद जो अंतिम नतीजा निकलता है, वह बिल्कुल असली जैसा होता है, लेकिन वास्तव में नकली होता है। यह तकनीक ‘जनरेटिव एडवरसैरियल नेटवर्क’ (जीएएन) का इस्तेमाल करती है, जिससे फर्जी वीडियो और फोटो बनाए जाते हैं। सोशल मीडिया मंचों पर डीपफेक वीडियो डाले जाने के बाद ये बहुत तेजी से फैलते हैं।

विभिन्न रपटों के मुताबिक इंटरनेट पर इस समय करोड़ों डीपफेक वीडियो मौजूद हैं। हालांकि इस तकनीक का इस्तेमाल मनोरंजन के लिए भी किया जाता है, लेकिन पोर्नाेग्राफी में इसका काफी इस्तेमाल होता है। डीपफेक के जरिए ही किसी फिल्म अभिनेता या अभिनेत्री का चेहरा बदल कर ‘पोर्न वेबसाइटों’ पर अश्लील सामग्री परोसी जाती है। माना जाता है कि इस तकनीक की शुरुआत ही अश्लील सामग्री बनाने से हुई थी। ‘डीपट्रेस’ की एक रपट के मुताबिक 2019 में आनलाइन पाए गए डीपफेक वीडियो में करीब 96 फीसद अश्लील ही थे।

पहली बार 2014 में इयन गुडफ्लो और उनकी टीम ने डीपफेक तकनीक को विकसित किया था, जिसमें धीरे-धीरे नई-नई तकनीकों के साथ नए-नए परिवर्तन किए जाते रहे। वैसे 1997 में क्रिस्टोफ ब्रेगलर, मिशेल कोवेल और मैल्कम स्लेनी ने भी डीपफेक तकनीक की मदद से एक वीडियो में ‘विजुअल’ से छेड़छाड़ की थी और एंकर द्वारा बोले गए शब्दों को बदल दिया था। मगर वह एक प्रयोग के तौर पर किया गया था। हालांकि इस तकनीक का इस्तेमाल हालीवुड फिल्मों में बड़े पैमाने पर किया जाता रहा है।

दरअसल, शूटिंग के दौरान कई बार किसी कलाकार के पास समय की कमी होने या शूटिंग के बीच में ही किसी कलाकार की मौत हो जाने पर इस तकनीक का इस्तेमाल किया जाता था। तब इस तकनीक का इस्तेमाल नकारात्मक तरीके से नहीं होता था। मगर जैसे-जैसे यह तकनीक परिष्कृत होती गई, असली-नकली का फर्क करना भी मुश्किल होने लगा और कुछ लोग इसका गलत इस्तेमाल करने लगे। इसी परिष्कृत तकनीक के जरिए विभिन्न हालीवुड और बालीवुड अभिनेत्रियों के अश्लील वीडियो बनाए जाने लगे। अनेक पोर्न वेबसाइट ऐसे डीपफेक वीडियो से भरी पड़ी हैं।

पहली बार डीपफेक शब्द 2017 के अंत में एक ‘रेडिट’ उपयोगकर्ता द्वारा बनाया गया था, जिसने अश्लील वीडियो पर विख्यात हस्तियों के चेहरे चस्पां करने के लिए डीप लर्निंग तकनीक का इस्तेमाल किया था। 2018 तक ओपन-सोर्स लाइब्रेरी तथा आनलाइन साझा किए गए ट्यूटोरियल की बदौलत यह तकनीक इस्तेमाल में आसान हो गई और 2020 के बाद तो डीपफेक और परिष्कृत हो गया, जिसका पता लगाना कठिन हो गया।

हालांकि डीपफेक तकनीक से तैयार तस्वीरों और वीडियो को पहचानना आसान नहीं होता, लेकिन यह असंभव भी नहीं है। तकनीक के जानकारों के मुताबिक इन्हें पहचानने के लिए वीडियो को बहुत बारीकी से देखते हुए खासतौर पर चेहरे के भाव, आंखों की हलचल और शारीरिक शैली पर ध्यान देना होगा। इसके अलावा होंठ संचालन से भी ऐसे वीडियो की पहचान की जा सकती है। ऐसे वीडियो को ‘लोकेशन’ और अतिरिक्त रोशनी से भी पहचाना जा सकता है। तस्वीरों को जूम करके भी ऐसे वीडियो और तस्वीर की सच्चाई जानी जा सकती है। ऐसे में डीपफेक वीडियो का प्रसार रोकने के लिए लोगों में जागरूकता पैदा करना बहुत जरूरी है।

अगर कोई मजाक में भी किसी का डीपफेक वीडियो बनाकर साझा करता है, तो उसके खिलाफ भारतीय दंड संहिता की धारा के तहत कार्रवाई और भारी जुर्माना लगाया जा सकता है। अगर ऐसे वीडियो के कारण किसी की छवि खराब होती है तो उसे बनाने वाले के खिलाफ मानहानि का मामला भी दायर किया जा सकता है। भारत में डीपफेक से मुकाबले का कानूनी हथियार मौजूद है, लेकिन इसकी जानकारी भी हर किसी को होना जरूरी है।

डीपफेक के जरिए किसी का अपमान करने पर आइपीसी की धारा 499 और 500 के तहत मानहानि का मुकदमा किया जा सकता है। अगर डेटा चोरी करके या हैकिंग कर कोई डीपफेक तैयार किया जाता है, तो पीड़ित सूचना प्रौद्योगिकी अधिनियम के तहत शिकायत कर सकता है। इसी प्रकार किसी सामग्री की चोरी होने पर कापीराइट एक्ट 1957 के तहत दोषी के खिलाफ कार्रवाई की जा सकती है। आइटी एक्ट 2000 किसी भी व्यक्ति को उसकी गोपनीयता की सुरक्षा प्रदान करता है। ऐसे में अगर कोई डीपफेक वीडियो या तस्वीर किसी की मर्जी के बिना बनाया जाता है, तो उसके खिलाफ शिकायत की जा सकती है।

कानून की धारा 66डी के तहत ऐसे मामले में दोषी पाए जाने पर तीन वर्ष तक की सजा और एक लाख रुपए तक का जुर्माना हो सकता है। आइटी अधिनियम में सोशल मीडिया मंचों की भी जिम्मेदारी तय है, जिसमें किसी व्यक्ति की गोपनीयता को सुरक्षा प्रदान करना जरूरी है। अगर किसी मंच को ऐसी किसी डीपफेक सामग्री के बारे में जानकारी मिलती है तो चौबीस घंटे के भीतर उसे हटाना उसकी जिम्मेदारी है।

विशेषज्ञों का कहना है कि डीपफेक को पकड़ना आसान हो सकता है, क्योंकि ये इंटरनेट पर मौजूद असली सामग्री से ही बनाए जा सकते हैं। मगर भारत में ऐसी सामग्री को लेकर सबसे बड़ी चिंता की बात है कि इसके लिए जिस धैर्य की जरूरत है, वह वाट्सएप संदेश अग्रेषित करते रहने वालों में नहीं दिखती। दरअसल, लोग बिना कुछ सोचे-समझे किसी भी संदेश को एक-दूसरे को अग्रेषित करते रहते हैं।

एसी नेल्सन की ‘इंडिया इंटरनेट रपट 2023’ के आंकड़ों के मुताबिक ग्रामीण भारत में 42.5 करोड़ से अधिक इंटरनेट उपयोगकर्ता हैं, जो शहरी भारत की तुलना में 44 फीसद अधिक हैं और इनमें से 29.5 करोड़ लोग नियमित रूप से इंटरनेट का उपयोग करते हैं। इस तरह जागरूकता के अभाव में डीपफेक के भावी खतरों को समझना कठिन नहीं है। देश में डिजिटल साक्षरता कम होने के कारण ऐसी सामग्री समस्या को बेहद गंभीर बना सकती है।