न्यूजीलैंड में MP ने संसद में अपनी न्यूड फोटो दिखाई:कहा- ये AI से 5 मिनट में बनी, डीपफेक रोकने के लिए कानून बने

न्यूजीलैंड में MP ने संसद में अपनी न्यूड फोटो दिखाई:कहा- ये AI से 5 मिनट में बनी, डीपफेक रोकने के लिए कानून बने
न्यूजीलैंड की महिला सांसद लॉरा मैक्लर ने संसद में अपनी एक AI-जेनरेटेड न्यूड तस्वीर दिखाई। उनका मकसद लोगों को ये बताना था कि ऐसी फर्जी तस्वीरें बनाना कितना आसान है और ये कितना खतरनाक हो सकता हैं। लॉरा ने संसद में कहा कि उन्होंने एक गूगल सर्च के जरिए मिली वेबसाइट का इस्तेमाल करके कुछ ही मिनटों में अपनी डीपफेक तस्वीर बना ली। उन्होंने डीपफेक और AI को नियंत्रित करने के लिए कानून की मांग की है। उन्होंने कहा- यह मेरी न्यूड तस्वीर है, लेकिन यह असली नहीं है। मुझे ऐसी डीपफेक तस्वीरें बनाने में पांच मिनट से भी कम समय लगा। 14 मई को लॉरा ने यह बातें कहीं थी, जो अब वायरल हो रही हैं। लॉरा ने कहा, “समस्या तकनीक में नहीं है, बल्कि इसका गलत इस्तेमाल करके लोगों को परेशान करने में है। हमें इसका हल निकालना होगा।” डीपफेक की ज्यादातर शिकार महिलाएं न्यूजीलैंड में अभी डीपफेक को सीधे तौर पर नियंत्रित करने वाला कोई कानून नहीं है, हालांकि डिजिटल संचार से संबंधित कुछ नियम जरूर हैं। लॉरा डीपफेक डिजिटल हार्म एंड एक्सप्लॉइटेशन बिल का समर्थन कर रही हैं, जो रिवेंज पोर्न और निजी रिकॉर्डिंग से संबंधित मौजूदा कानूनों को अपडेट करेगा। इसके तहत बिना मर्जी के डीपफेक बनाना या साझा करना अपराध होगा। न्यूजीलैंड के विशेषज्ञों का कहना है कि ज्यादातर डीपफेक पोर्न बिना सहमति के बनाए जाते हैं और इनका निशाना ज्यादातर महिलाएं होती हैं। लॉरा को उम्मीद है कि उनका यह कदम कानूनी सुधारों को तेज करेगा। उन्होंने कहा, “किसी को भी बिना सहमति के डीपफेक पोर्न का निशाना नहीं बनना चाहिए। यह साफ तौर पर उत्पीड़न है। हमारे कानूनों को जल्दी अपडेट करने की जरूरत है।” डीपफेक वीडियो में 90 से 95% अश्लील कंटेंट लॉरा मैक्लर ने बताया कि डीपफेक फोटो बनाने के लिए आपको बस एक बॉक्स में टिक करके यह कहना होता है कि आप 18 वर्ष से अधिक उम्र के हैं और फोटो में मौजूद व्यक्ति की सहमति आपके पास है। हालांकि अधिकांश मामलों में सहमति नहीं ली जाती। लॉ एसोसिएशन के अनुसार ऑनलाइन डीपफेक वीडियो में 90 से 95% गैर-सहमति आधारित अश्लील कंटेंट होते है। इनमें से लगभग 90% में महिलाओं को गलत तरीके से दिखाया जाता है। मैक्लर ने कहा कि उनसे कई लोग संपर्क कर चुके हैं जो डीपफेक से जुड़ी धमकी या सेक्सटॉर्शन से प्रभावित हुए हैं। उन्होंने कहा कि इसका विशेष रूप से युवाओं पर गंभीर मानसिक प्रभाव पड़ा है। मैक्लर कानून में बदलाव करना चाहती हैं ताकि डीपफेक के निर्माण और साझा करने पर प्रतिबंध लगाया जा सके। मैक्लर के बिल को आधिकारिक सरकारी कानून के रूप में मान्यता देने पर एक प्रवक्ता ने हेराल्ड से कहा कि सरकार वर्तमान में इस पर विचार नहीं कर रही है। लॉरा मैक्लर के बिल की खास बातें अमेरिका में बिना सहमति फोटो यूज करना अपराध अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प ने मई में टेक इट डाउन एक्ट पर हस्ताक्षर किए, जिसके तहत किसी व्यक्ति की सहमति के बिना उसकी फोटो को यूज करना अपराध होगा। ये नियम पीड़ितों के अनुरोध पर सोशल मीडिया प्लेटफॉर्म्स को 48 घंटे के भीतर ऐसी तस्वीरों को हटाने के लिए बाध्य करता है। कई भारतीय हस्तियां भी डीपफेक का शिकार हुईं रश्मिका मंदाना सोशल मीडिया पर नवंबर 2024 में एक्ट्रेस रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मॉर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें चेहरे के एक्सप्रेशन बिल्कुल रियल लग रहे थे। प्रियंका चोपड़ा अभिनेत्री प्रियंका चोपड़ा को दिसंबर 2023 में एक वीडियो में एक ब्रांड का प्रचार करते और अपनी वार्षिक आय का खुलासा करते हुए देखा गया। वीडियो में प्रियंका का चेहरा नहीं बदला गया था। हालांकि उनकी आवाज और मूल वीडियो की लाइन के ऑडियो को एक नकली ब्रांड विज्ञापन से बदल दिया गया था। आलिया भट्ट आलिया भट्ट दो बार डीपफेक का शिकार हो चुकी हैं। डीपफेक वीडियो में आलिया भट्ट को ब्लैक कुर्ता में रेडी होते दिखाया गया था। पूरे क्लिप में वो कैमरे के सामने मेकअप करती नजर आ रही थीं। आलिया भट्ट के अलावा इंफोसिस के संस्थापक नारायण मूर्ति, क्रिकेटर सचिन तेंदुलकर, अभिनेत्री और डांसर नोरा फतेह और विराट कोहली भी डीपफेक का शिकार हो चुके है। नरेंद्र मोदी एक वीडियो वायरल हुआ जिसमें प्रधानमंत्री नरेंद्र मोदी जैसा दिखने वाला एक व्यक्ति गरबा करते हुए दिखाई दिया था। इस वीडियो पर प्रतिक्रिया देते हुए प्रधानमंत्री मोदी ने इस बात पर जोर दिया कि डीपफेक समाज में अराजकता पैदा कर सकते हैं और नागरिकों तथा मीडिया से सतर्क रहने का आग्रह किया था। सचिन तेंदुलकर सचिन तेंदुलकर का एक फेक वीडियो सोशल मीडिया पर वायरल हुआ था। जिसमें उन्हें एक ऑनलाइन गेम को बढ़ावा देते हुए दिखाया गया था। वीडियो में तेंदुलकर ने बेटी सारा का उदाहरण दिया जो गेम में भविष्यवाणियां करके प्रतिदिन 1.8 लाख रुपए कमा रही है। क्रिकेटर सचिन तेंदुलकर ने फर्जी वीडियो के खिलाफ शिकायत की थी। डीपफेक होता क्या है और कैसे बनाया जाता है? डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे। किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है। AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है। भारत में डीपफेक को लेकर नियम ------------------------ ये खबर भी पढ़ें... पाकिस्तान में टिकटॉक स्टार सना की बर्थडे पर हत्या:घर में घुसकर गोली मारी, मेहमान बनकर आया था हमलावर; गिरफ्तार पाकिस्तान में सोशल मीडिया इन्फ्लुएंसर सना यूसुफ की उनके ही घर में गोली मारकर हत्या कर दी गई है। घटना इस्लामाबाद के जी-13 इलाके में हुई। गोली मारने के बाद हमलावर फरार हो गया। पूरी खबर पढ़ें...