Rashmika Mandanna: एक्ट्रेस रश्मिका की डीपफेक वायरल वीडियो पर IT मंत्री की चेतावनी, भड़के Amitabh Bachchan, बोले- 'लीगल एक्शन लेना चाहिए'
सोशल मीडिया पर आए दिन सेलिब्रिटीज की एडिटेड फोटोज लीक होती रहती हैं। इन दिनों रश्मिका मंदाना (Rashmika Mandanna) का एडिटेड वीडियो लीक हो रहा है, जिसके बाद उनके चाहने वाले बेहद नाराजगी जाहिर कर रहे हैं। यही नहीं, 'सदी के महानायक' अमिताभ बच्चन (Amitabh Bachchan) ने भी लीगल एक्शन की डिमांड की है।
रश्मिका मंदाना का डीपफेक वीडियो
दरअसल, शुक्रवार को रश्मिका मंदाना का एक वीडियो इंटरनेट पर धड़ल्ले से वायरल हो गया। क्लिप में देखा जा सकता है कि अभिनेत्री ब्लैक कलर की डीप नेक टाइट जिम वियर में लिफ्ट के अंदर आईं। रश्मिका के इस बोल्ड वीडियो के सोशल मीडिया पर वायरल होते ही फैंस नाराज हो गए। वास्तव में वीडियो में वह रश्मिका नहीं बल्कि जारा पटेल हैं।
🚨 There is an urgent need for a legal and regulatory framework to deal with deepfake in India.
— Abhishek (@AbhishekSay) November 5, 2023
You might have seen this viral video of actress Rashmika Mandanna on Instagram. But wait, this is a deepfake video of Zara Patel.
This thread contains the actual video. (1/3) pic.twitter.com/SidP1Xa4sT
एक यूजर ने वीडियो पोस्ट करते हुए लिखा, "भारत में डीपफेक से निपटने के लिए एक कानूनी और नियामक ढांचा बहुत जरूरी है। एक्ट्रेस रश्मिका मंदाना का ये वायरल वीडियो आपने इंस्टाग्राम पर देखा होगा, लेकिन यह वीडियो उनका नहीं, बल्कि जारा पटेल का एक डीपफेक वीडियो है।
भड़के अमिताभ बच्चन
रश्मिका मंदाना के इस डीपफेक वीडियो के वायरल होने से अमिताभ बच्चन भी नाराज हैं। बिग बी ने सोशल मीडिया पर गुस्सा जाहिर किया है और लीगल एक्शन लेने की मांग की है। अमिताभ ने वायरल वीडियो को माइक्रो ब्लॉगिंग साइट एक्स (ट्विटर) पर शेयर करते हुए लिखा, "हां, यह कानूनी रूप से स्ट्रॉन्ग केस है।"
यही नहीं, बिग बी ने वायरल वीडियो की सच्चाई बताते हुए एक वीडियो भी शेयर किया है, जिसमें जारा पटेल नजर आ रही हैं। क्लिप के साथ अमिताभ ने कैप्शन में लिखा, "इन्फोर्मेशन।"
रश्मिका ने दी प्रतिक्रिया
रश्मिका ने एक्स पर अपनी प्रतिक्रिया देते हुए कहा कि यह भयावह है और यह किसी के साथ हो सकता है।टेक विशेषज्ञों के मुताबिक सोशल मीडिया पर आपकी तस्वीर का इस्तेमाल कर आसानी से आपका फर्जी वीडियो बनाया जा सकता है। एआई की मदद से अब ऑडियो थ्रेट भी बढ़ता जा रहा है। आपकी आवाज में कोई व्यक्ति आपके रिश्तेदार से बात कर सकता है और उन्हें धोखा दे सकता है। टेक जानकारों के मुताबिक यूरोप में प्रचलित कई एप पर सोशल मीडिया से महिलाओं की तस्वीर निकाल उनका नग्न वीडियो सार्वजनिक किया जा रहा है।
IT मंत्री ने दी चेतावनी
इलेक्ट्रॉनिक्स व आईटी राज्य मंत्री राजीव चंद्रशेखर ने अभिनेत्री के डीपफेक वीडियो पर संज्ञान लेते हुए कहा कि सरकार सभी डिजिटल नागरिक की सुरक्षा को लेकर प्रतिबद्ध है। सोशल मीडिया को यह सुनिश्चित करना चाहिए कि उनके प्लेटफार्म पर कोई गलत कंटेंट नहीं आ पाए। अगर सरकार या फिर कोई व्यक्ति उस गलत कंटेंट के बारे में सूचना देता है तो उसे आईटी एक्ट के तहत 36 घंटे के भीतर प्लेटफार्म से हटाना होगा।
अगर सोशल मीडिया प्लेटफार्म ऐसा नहीं करता है तो पीडि़त पक्ष आईटी एक्ट के नियम सात के तहत प्लेटफार्म के खिलाफ अदालत जा सकता है और प्लेटफार्म के खिलाफ भारतीय दंड संहिता के अनुसार कार्रवाई होगी। उन्होंने कहा कि डीपफेक गलत सूचना फैलाने का ज्यादा खतरनाक माध्यम है जो नुकसानदेह साबित हो सकता है, इसलिए सोशल मीडिया प्लेटफार्म को इससे निपटने की जरूरत है।
कैसे बनता है Deep Fake Video?
एआई के इस्तेमाल से डीपफेक वीडियो में किसी अन्य व्यक्ति के वीडियो में आपके शरीर या सिर को जोड़कर इस तरह दिखाया जाएगा कि उसे पकड़ना आसान नहीं होगा और लोग आसानी से यह विश्वास कर लेंगे यह कि यह वीडिया आपका है। रश्मिका के साथ भी ऐसा ही हुआ जब एंग्लो इंडिया लड़की जारा पटेल के वीडियो के साथ छेड़छाड़ कर उनका वीडियो बना उसे अपलोड कर दिया गया।
0 टिप्पणियाँ