कृत्रिम बुद्धिमत्ता (एआइ) का इस्तेमाल कर परिचितों की नकल कर फोन पर ठगी आम होती जा रही है। ये फोन काल जेनरेटिव एआइ के रूप में जाने जाते हैं, जो उपयोगकर्ता के संकेतों के आधार पर टेक्स्ट, इमेज या वीडियो जैसे किसी अन्य मीडिया को बनाने में सक्षम सिस्टम को संदर्भित करते हैं। डीपफेक में पिछले कुछ वर्षों में कई हाई-प्रोफाइल घटनाएं सामने आई हैं, जैसे कि फेसबुक और इंस्टाग्राम पर दिखाई देने वाले विचारोत्तेजक विज्ञापनों की एक शृंखला में अभिनेत्री एम्मा वाटसन की छवि का उपयोग किया जा रहा है।
वर्ष 2022 का व्यापक रूप से साझा किया गया और तोड़-मरोड़कर दिखाया गया वीडियो भी था, जिसमें यूक्रेनी राष्ट्रपति व्लोदोमीर यूक्रेनवासियों को हथियार डालने के लिए कहते दिखाई दिए। अब किसी व्यक्ति की आवाज की यथार्थवादी प्रतिलिपि, आडियो डीपफेक बनाने की तकनीक तेजी से आम होती जा रही है। किसी की आवाज की यथार्थवादी प्रतिलिपि बनाने के लिए आपको एल्गोरिदम को प्रशिक्षित करने के लिए डेटा की आवश्यकता होती है।
इसका मतलब है कि आपके इच्छित लक्ष्य की आवाज की कई आडियो रिकार्डिंग होना। व्यक्ति की आवाज के जितने अधिक उदाहरण आप एल्गोरिदम में डाल सकते हैं, अंतिम प्रतिलिपि उतनी ही बेहतर और अधिक विश्वसनीय होगी। हममें से कई लोग पहले से ही अपने दैनिक जीवन का विवरण इंटरनेट पर साझा करते हैं।
इसका मतलब यह है कि किसी आवाज की यथार्थवादी प्रतिलिपि बनाने के लिए आवश्यक आडियो डेटा सोशल मीडिया पर आसानी से उपलब्ध हो सकता है। लेकिन एक बार कापी बाहर आ जाने पर क्या होता है? सबसे बुरा क्या हो सकता है?
एक डीपफेक, एल्गोरिदम डेटा रखने वाले किसी भी व्यक्ति को आप से जो चाहे कहलवाने में सक्षम कर सकता है। व्यवहार में, यह उतना ही सरल हो सकता है जितना कि कुछ लिखना और कंप्यूटर से उसे आपकी आवाज के अनुरूप जोर से बोलना। यह क्षमता आडियो गलत सूचना और दुष्प्रचार के प्रसार को बढ़ाने का जोखिम अपने साथ लाती है।
इसका उपयोग अंतरराष्ट्रीय या राष्ट्रीय जनमत को प्रभावित करने की कोशिश के लिए किया जा सकता है, जैसा कि जेलेंस्की के वीडियो के साथ देखा गया है। लेकिन इन तकनीकों की सर्वव्यापकता और उपलब्धता स्थानीय स्तर पर भी अहम चुनौतियां पैदा करती हैं – विशेष रूप से एआइ स्कैम काल की बढ़ती प्रवृत्ति में।
कई लोगों को एक झूठी जानकारी मिली होगी कि हमारे कंप्यूटर से छेड़छाड़ की गई है और हमें तुरंत लाग – इन करना चाहिए। अक्सर यह पता लगाना बहुत आसान होता है कि यह एक धोखा है, खासकर तब जब काल करने वाला ऐसा अनुरोध कर रहा हो जो किसी वैध संगठन का कोई व्यक्ति नहीं कर रहा हो।
अब कल्पना करें कि फोन के दूसरी तरफ की आवाज सिर्फ किसी अजनबी की नहीं है, बल्कि बिल्कुल किसी दोस्त या प्रियजन की तरह लगती है। सीएनएन की एक रपट में एक वाकए का जिक्र है। एक महिला को एक अज्ञात नंबर से काल आया। जब उसने फोन उठाया तो वह उसकी बेटी थी। कथित तौर पर बेटी का अपहरण कर लिया गया था और वह फिरौती की मांग के लिए अपनी मां को फोन कर रही थी। दरअसल, लड़की सुरक्षित और स्वस्थ थी। घोटालेबाजों ने उसकी आवाज का डीपफेक बनाया था।
यह कोई अकेली घटना नहीं है, जिसमें कथित कार दुर्घटना सहित झूठी कहानियों की विविधताएं हैं, जहां दुर्घटना के बाद पीड़ित मदद के लिए अपने परिवार को पैसे के लिए बुलाता है। जैसे-जैसे एआइ की क्षमताओं का विस्तार होगा, वास्तविकता और कल्पना के बीच की रेखाएं तेजी से धुंधली होती जाएंगी। जाहिर है, लोगों को और अधिक सतर्क रहने की जरूरत होगी।
आभासी अपहरण
आभासी अपहरण शब्द कई वर्षों से प्रचलित है। इसके कई रूप हो सकते हैं, लेकिन एक आम तरीका यह है कि पीड़ितों को अपने किसी प्रियजन को छुड़ाने के लिए फिरौती देने के लिए बरगलाया जाए, उन्हें लगता है कि उन्हें धमकी दी जा रही है। धोखाधड़ी का पता चलने से पहले पीड़ित को त्वरित फिरौती का भुगतान करने के लिए घोटालेबाज तैयार कर लेते हैं। मिलती आवाज तैयार करने वाले स्पेक्ट्रोग्राम साफ्टवेअर की मदद से ऐसा किया जा रहा है। इसमें बचने का रास्ता यह है कि आप पलटकर फोन करें और इसकी पुष्टि कर लें।