Tribune
PT
About the Dainik Tribune Code Of Ethics Advertise with us Classifieds Download App
search-icon-img
Advertisement

छलिया और छलने की दुनिया डीपफ़ेक

कवर स्टोरी
  • fb
  • twitter
  • whatsapp
  • whatsapp
Advertisement

डीपफेक तकनीक के गलत इस्तेमाल के चलते ऑनलाइन दुनिया में लोगों की सुरक्षा चिंताएं और बढ़ गयी हैं। हाल ही में कुछ अभिनेत्रियों के हूबहू असली जैसे लगने वाले नकली वीडियो सोशल मीडिया पर वायरल हुए। किसी ओर के मूल वीडियो में चेहरा इन एक्ट्रेस का चस्पां था। दरअसल, आर्टिफिशियल इंटेलीजेंस से किसी व्यक्ति की फर्जी (डीपफ़ेक) इमेज़ या वीडियो बनाये जा सकते हैं। कंप्यूटर या फोन पर लोग किसी भी फोटो, ऑडियो या वीडियो को किसी और शख्स की फोटो-वीडियो आदि में बदल सकते हैं। हालांकि डीपफेक वीडियो की थोड़ी-बहुत पहचान पात्र के पलक न झपकने आदि से हो सकती है।

डॉ. संजय वर्मा

Advertisement

लेखक एसोसिएट प्रोफेसर हैं।

अपनी बहन शूर्पनखा के अपमान का बदला लेने के लिए रावण ने जो योजना बनाई, उसमें वन में श्रीराम-लक्ष्मण के साथ निवासित सीता का छल से हरण करना ही अहम था। मारीच को स्वर्ण-हिरण का रूप धरकर पहले तो श्रीराम को उसके पीछे कुटिया से निकालकर वन में जाने को प्रेरित किया। फिर छल से लक्ष्मण को भी वन में जाने को विवश कर दिया। लक्ष्मण ने एक रेखा खींचकर व्यवस्था कर दी थी ताकि सीता मैया की सुरक्षा पर कोई संकट न आए। लेकिन कौन जानता था कि रावण छलिया है। बहुरूपिया है। डीप फ़ेक का उस्ताद है। वह साधु का वेश धरकर कुटिया पर आया। सीता नकली साधु वेश के पीछे छिपे रावण को पहचान न पायीं और लक्ष्मण-रेखा से पांव बाहर निकालते ही रावण उन्हें छल से हर ले गया। भारतीय जनमानस में रचे-बसे प्रभु श्रीराम-सीता के जीवन से जुड़े इस किस्से में रावण के छलिया वेश का प्रसंग इतना अहम है कि यदि आज इसे बतौर डीपफ़ेक की शुरुआती पौराणिक घटना दर्ज किया जाए, तो शायद किसी को आपत्ति नहीं होगी।

पौराणिक आख्यानों में डीपफ़ेक का उल्लेख एक तकनीकी प्रबंध के रूप में नहीं मिलता। किस्से-कहानियों में भी किसी दूसरे का रूपाकार धारण कर कोई छल या माया रचने वाली असंख्य घटनाओं का वर्णन मिलता है। लेकिन इनमें दूसरे का चेहरा या रूपाकार अपनाने को या तो बहुरूपिया कला से जोड़ा जाता था या फिर माया की सिद्धि से, जिसमें व्यक्ति किसी दूसरे इंसान का ही नहीं, बल्कि किसी जीव-जंतु का रूप भी धर सकता था। इधर ऐसा ही एक छल बॉलीवुड की कुछ चर्चित अभिनेत्रियों के ऐसे वीडियोज़ की शक्ल में सामने आया है, जिनमें किसी अन्य स्त्री के शरीर पर इन अभिनेत्रियों का चेहरा इतनी सफाई से चस्पां कर दिया गया कि मालूम नहीं होता कि उन वीडियो में भदेस या अश्लील किस्म की भाव-भंगिमाएं दिखाती महिला असल में कोई और है। इस किस्से की शुरुआत एक्ट्रेस रश्मिका मंदाना से हुई। एक माह के अंदर ऐसे डीपफ़ेक वीडियो अभिनेत्री आलिया भट्ट और काजोल के भी सोशल मीडिया पर वायरल हो गए। मामला सिनेमाई हस्तियों तक सीमित नहीं रहा, बल्कि प्रधानमंत्री नरेंद्र मोदी का भी एक वीडियो वायरल हुआ, जिसमें वे गरबा करते नजर आ रहे हैं। पूर्व अमेरिकी राष्ट्रपति बराक ओबामा और फेसबुक (अब मेटा) के संस्थापकों में से एक मार्क जुकरबर्ग तक इस गोरखधंधे की चपेट में आ चुके हैं। अंदरूनी पड़ताल नहीं की जाए, तो ये वीडियो असली लगते थे।

एआई का मसालेदार छौंक

रश्मिका मंदाना के हालिया वायरल डीपफ़ेक वीडियो की असलियत की पड़ताल के दौरान यदि हमारे सामने किसी अन्य लड़की का असली वीडियो तुलना के लिए नहीं रखा जाए तो शायद ही कोई यकीन करे कि ये हरकतें रश्मिका ने नहीं, किसी और ने की हैं। दोनों वीडियो साथ में चलाने पर पता चलता है कि अनाम लड़की के वीडियो में रश्मिका का चेहरा बेहद सटीकता से चिपकाया गया हैै। ऑडियो भी डीपफ़ेक बन सकते हैं। दरअसल आर्टिफिशियल इंटेलीजेंस (एआई) ने किसी भी व्यक्ति की फर्जी (डीपफ़ेक) इमेज़ या वीडियो बनाना बायें हाथ का खेल कर दिया है। सिद्धहस्त लोग किसी भी फोटो, ऑडियो या वीडियो को डीपफ़ेक में किसी और शख्स की फोटो-वीडियो आदि में बदल सकते हैं। कंप्यूटर या स्मार्टफोन पर ऐसी तस्वीरें और वीडियो गढ़े जा सकते हैं, जहां असली असली नहीं रहता, उस पर नकलीपन हावी हो जाता है। डीपफ़ेक का आरंभ छह साल पूर्व 2017 से मान सकते हैं, जब माइक्रोब्लॉगिंग साइट रेडिट के एक उपयोगकर्ता ने अश्लील वीडियो में चेहरा बदलने को इस तकनीक का उपयोग किया। हालांकि रेडिट ने इस तकनीक को ‘डीपफ़ेक पॉर्न’ की श्रेणी में डाल ऐसी गतिविधि को मंच पर प्रतिबंधित कर दिया था।

तकनीकी प्रक्रिया

एआई के आगमन के बाद किसी वीडियो या ऑडियो में दूसरों के चेहरे व आवाज़ों को बदलना थोड़ा आसान हो गया, लेकिन आम तौर पर यह पेचीदा तकनीक मानी जाती रही है। इस हेतु व्यक्ति को कंप्यूटर से संबंधित मशीन लर्निंग का पूरा ज्ञान होना चाहिए।

इस्तेमाल कहां-कहां

एक आंकड़ा बताता है कि वर्ष 2019 में मौजूद डीपफ़ेक वीडियो में से 96 फीसदी अश्लील सामग्रियों वाले थे। डीपट्रेस की रिपोर्ट के मुताबिक, कुल 14,678 डीपफे़क वीडियो ऑनलाइन मौजूद थे। यह भी कि डीपफेक़ वीडियो के आकलन में पता चला कि डीपफ़ेक पोर्नोग्राफी का इस्तेमाल महिलाओं की छवि को धूमिल करने के लिए किया गया था। साइबर अपराधियों ने ब्लैकमेलिंग या फिरौती वसूलने के लिए भी डीपफ़ेक का इस्तेमाल किया है। शेष चार फीसदी डीपफेक़ वीडियो विशुद्ध मनोरंजन, पुरानी यादों को ताजा करने अथवा राजनीतिक उद्देश्यों के लिए खुद को अव्वल और दूसरे को नीचा दिखाने को बनाए गए थे।

कानूनी स्थिति और नीतिगत उपाय

केंद्रीय सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने आश्वस्त किया कि सरकार जल्द ही सोशल मीडिया कंपनियों से डीपफ़ेक संबंधी मामलों पर चर्चा करेगी। यदि इन कंपनियों (मंचों) ने इस प्रचलन को रोकने के उपाय नहीं किए तो उन्हें आईटी एक्ट के सेफ़ हार्बर के तहत इम्यूनिटी या सरंक्षण नहीं मिलेगा। यहां इम्युनिटी का अभिप्राय है कि आईटीएक्ट की धारा- 79 के एक अपवाद के तहत कंपनियों को यह सरंक्षण प्राप्त था कि यदि किसी प्लेटफॉर्म पर तीसरी पार्टी ने कोई आपत्तिजनक सामग्री पोस्ट की है, लेकिन उस प्लेटफॉर्म ने उस सामग्री को सर्कुलेट नहीं किया है तो प्लेटफॉर्म की जिम्मेदारी नहीं मानी जाएगी। अब इस नीति में बदलाव हो गया है। हालांकि भारत के आईटी एक्ट में पहले से ऐसे मामलों में सजा के प्रावधान रहे हैं।

पहचान कैसे करें

यूं एआई की मदद से तैयार डीपफ़ेक सामग्री की पहचान करना अब काफी मुश्किल हो गया है। अब ऐसी सामग्री तभी पकड़ में आ पाती है, जब हमारे सामने उससे संबंधित असली फोटो, वीडियो या ऑडियो मौजूद हो। फिर भी सामान्य सावधानी यह बरती जा सकती है कि यदि किसी वीडियो में व्यक्ति बहुत देर से पलकें नहीं झपका रहा है, तो माना जा सकता है कि वह वीडियो नकली यानी डीपफ़ेक है। बोलते समय होंठों के संचालन में या फिर बातचीत करने में कोई तालमेल नहीं होने से इसका अंदाजा लगाया जा सकता है। हेयर स्टाइल और दांतों की बनावट से भी अनुमान लगाया जा सकता है, लेकिन जल्दबाजी में लोग सामने आये ऑडियो या वीडियो को सच मान लेते हैं।

Advertisement
×