शरीर किसी का और चेहरा आप का, AI खेल रहा है ऐसे 'डर्टी गेम', ये वीडियो है जीता जागता प्रूफ, सुरक्षित रहें....

सोशल मीडिया पर एक वीडियो वायरल हो रहा है जिसमें एक्ट्रेस रश्मिका मंदाना नजर आ रही हैं, लेकिन असल में ये वीडियो किसी और का है और डीपफेक बनाने के लिए उनके वीडियो के साथ छेड़छाड़ की गई है। 
 | 
AI
टेक्नोलॉजी कितनी तेजी से आगे बढ़ रही है आज इसका अंदाजा लगाना भी बड़ा हीमुश्किल काम हो गया है। आज के समय में मशीन से कोई भी काम पल भर में हो जाता है। हालाँकि, हर चीज़ का सही और गलत पक्ष होता है और आर्टिफिशियल इंटेलिजेंस के साथ भी ऐसा ही हो रहा है। कोई भी तकनीक इसलिए विकसित की जाती है ताकि उसका उपयोग हमें आगे बढ़ने में मदद करे या चीजों को आसान बना दे। लेकिन आज का समय ऐसा है कि टेक्नोलॉजी का सही इस्तेमाल होने से पहले ही इसका दुरुपयोग होने लगता है। डीपफेक को आर्टिफिशियल इंटेलिजेंस के जरिए अंजाम दिया जा रहा है। READ ALSO:-UP : नशे में धुत्त युवक को सांप के साथ स्टंट करना पड़ा भारी, खेल-खेल में सांप के डसने से चली गई जान, Video सोशल मीडिया पर हुआ वायरल

 

दरअसल, सोशल मीडिया पर एक वीडियो काफी तेजी से वायरल हो रहा है जिसमें कथित तौर पर एक्ट्रेस रश्मिका मंदाना को लिफ्ट में घुसते हुए दिखाया गया है, लेकिन इस वीडियो की पहचान डीपफेक के रूप में की गई है। दरअसल, इसके वीडियो में ब्रिटिश-भारतीय मूल की महिला ज़ारा पटेल हैं। आपको बता दें कि कुछ दिन पहले जारा पटेल ने खुद अपना वीडियो इंस्टाग्राम पर अपलोड किया था। 

 


वीडियो को करीब से देखने पर पता चलता है कि पटेल के चेहरे से लेकर रश्मिका के चेहरे तक एक सहज परिवर्तन होता है, जब वह बंद लिफ्ट के दरवाजे से बाहर निकलने की कोशिश करती है। अगर आप गौर करें तो पहले सेकंड में एक्ट्रेस का सिर ओरिजिनल वीडियो में जारा के शरीर पर नहीं रखा गया है। 

 

लेकिन ये इतनी आसानी से होता है कि एक आम यूजर इस बदलाव को आसानी से नहीं समझ पाएगा। इसीलिए पहली बार करीब एक महीने तक डीपफेक को भी नजरअंदाज किया गया। इसे 8 अक्टूबर को ऑनलाइन पोस्ट किया गया था।

 

अब प्रश्न यह है कि डीपफेक क्या होता है और इससे कैसे बचाव किया जा सकता है?
आज के समय में आर्टिफिशियल इंटेलिजेंस इतना हाईटेक हो गया है कि कोई भी आपकी फोटो से कुछ ही मिनटों में डीप फेक (झूठी फोटो) बना सकता है। डीप फेक शब्द का मतलब है ऐसी तस्वीरें या वीडियो जिनमें आपका चेहरा और शरीर तो दिखेगा, लेकिन असल में वो आप नहीं हैं। इसका इस्तेमाल पॉर्न वीडियो में भी खूब किया जाता है, जहां किसी और के शरीर पर किसी और का चेहरा लगाया जाता है। डराने वाली बात ये है कि पूरे वीडियो में किसी और का चेहरा लगा दिया गया है, जिसे पहचानना बेहद मुश्किल हो जाता है। 

 

उदाहरण के लिए, यदि आपके पास कोई फोटो है, तो आपका चेहरा किसी सेलिब्रिटी के शरीर से बदला जा सकता है। फोटो देखने वाले को लगेगा कि फोटो में आप ही हैं, लेकिन असल में वह शरीर किसी और का है। इसे आर्टिफिशियल इंटेलिजेंस से इतनी आसानी से बनाया जाता है कि कोई समझ ही नहीं पाता कि इसे एडिट किया गया होगा।

 whatsapp gif

खुद को कैसे सुरक्षित रखें?
किसी भी व्यक्ति का डीप फेक बनाने के लिए उस व्यक्ति की 5 या अधिक तस्वीरों की आवश्यकता होती है। फिर आर्टिफिशियल इंटेलिजेंस इन तस्वीरों का अध्ययन करता है और उन्हें सॉफ्टवेयर के रूप में संग्रहीत करता है। ऐसे में आप एक काम कर सकते हैं कि अपनी तस्वीरों को सोशल मीडिया से हटा दें या फिर उन्हें पब्लिक से हटाकर प्राइवेट कर दें। इस तरह आपकी तस्वीरों को गलत इस्तेमाल से बचाया जा सकता है।
Deepafake से कैसे बच सकते हैं  
Deepafake वीडियो की पहचान करना बहुत मुश्किल काम है। Deepafake का शिकार बनने से बचने के लिए सोशल मीडिया पर अपनी फोटो या वीडियो शेयर करते समय थोड़ा सावधान रहें। अगर आपके साथ Deepafake जैसा कुछ होता है तो तुरंत पुलिस या साइबर सेल में शिकायत दर्ज कराएं।

 

आप इन तरीकों से भी Deepafake कंटेंट का पता लगा सकते हैं।
  • त्वचा और शरीर के अंगों के रंग आदि में अंतर होना।
  • आंखों के आसपास छाया.
  • लगातार या अजीब तरीके से आंखें झपकाना।
  • चश्मा अजीब लगता है.
  • मुँह और चेहरे के भाव अलग-अलग दिखाई देते हैं।
  • चेहरे के साथ होठों का तालमेल न होना।
  • बाल चेहरे से मेल नहीं खा रहे हैं। 
  • चेहरे पर दिखने वाले अजीब या नकली तिल। 
  • ये संकेत आपको Deepafake वीडियो की प्रामाणिकता की पहचान करने में मदद कर सकते हैं।

 

sonu

देश दुनिया के साथ ही अपने शहर की ताजा खबरें अब पाएं अपने WHATSAPP पर, क्लिक करें। Khabreelal के Facebookपेज से जुड़ें, Twitter पर फॉलो करें। इसके साथ ही आप खबरीलाल को Google News पर भी फॉलो कर अपडेट प्राप्त कर सकते है। हमारे Telegram चैनल को ज्वाइन कर भी आप खबरें अपने मोबाइल में प्राप्त कर सकते है।