डीपफेक क्या है तथा क्यों खतरनाक है? | Deep Fake in Hindi

साझा करें

नमस्कार दोस्तो स्वागत है आपका जानकारी ज़ोन में जहाँ हम विज्ञान, प्रौद्योगिकी, राष्ट्रीय एवं अंतर्राष्ट्रीय राजनीति, अर्थव्यवस्था, ऑनलाइन कमाई तथा यात्रा एवं पर्यटन जैसे क्षेत्रों से महत्वपूर्ण तथा रोचक जानकारी आप तक लेकर आते हैं। आज इस लेख में हम बात करेंगे डीप फेक की तथा समझेंगे इसका समाज एवं देश पर किस प्रकार प्रभाव पड़ सकता है। (Deep Fake in Hindi)

फेक न्यूज

फेक न्यूज जैसा कि नाम से स्पष्ट है, से आशय झूठी खबरों से है। पिछले कुछ सालों में जैसे जैसे इंटरनेट की पहुँच लोगों तक बढ़ी है स्वास्थ्य, शिक्षा, रक्षा, अर्थव्यवस्था आदि क्षेत्रों के साथ हमारे दैनिक जीवन के हर पहलू में आमूलचूल बदलाव देखने को मिले हैं। किन्तु प्रौद्योगिकी के सकारात्मक परिणामों के अतिरिक्त इसके अनियंत्रित प्रयोग के कारण इसके दुरुपयोग की संभावनाएँ भी दिन-प्रतिदिन बढ़ रही हैं।

इसी क्रम में फेक न्यूज या झूठी खबरों को फैलाने का मुद्दा प्रमुख है। ऐसी खबरें लोगों को गुमराह करने, किसी की छवि खराब करने, सांप्रदायिक मतभेद पैदा करने, आदि के उद्देश्य से फैलाई जाती हैं। फेसबूक, इंस्टाग्राम, व्हाट्सएप जैसे सोशियल मीडिया प्लेटफ़ॉर्म की बढ़ती पहुँच ऐसी खबरों को फैलाने में उत्प्रेरक की भूमिका अदा कर रही है। झूठी खबरें, दुष्प्रचार, अफवाहें समाज में तनाव तथा ध्रुवीकरण के तंत्र बन रहे हैं जो भारत जैसे देश के लिए बहुत बड़ी चुनौती है। 

डीप फेक

इंटरनेट तथा सोशियल मीडिया के एक प्रमुख दुष्परिणाम फेक न्यूज को हमनें समझा। किन्तु डीप फेक (Deep Fake in Hindi) झूठी खबरों का कहीं अधिक विकसित तथा खतरनाक रूप है। यह दुष्प्रचार और अफवाहों को तेज़ी से फैलाने का नया विकल्प बनकर उभरा है। जहाँ सामान्य झूठी खबरों को कई तरीके से जाँचा जा सकता है वहीं डीप फेक को पहचान पाना किसी आम इंसान के लिए बेहद मुश्किल है। डीप फेक ‘डीप लर्निंग’ और ‘फेक’ का सम्मिश्रण है इसमें कृत्रिम बुद्धिमत्ता का प्रयोग कर किसी मीडिया फ़ाइल जैसे चित्र, ऑडिओ तथा वीडियो की नकली प्रतिकृति तैयार की जाती है, जो वास्तविक फ़ाइल की तरह ही दिखती हैं और आवाज करती हैं।

Deep Fake in Hindi
Deep Fake in Hindi

कैसे करता है कार्य?

कृत्रिम बुद्धिमत्ता का प्रयोग कर किसी व्यक्ति द्वारा बोले गए शब्दों, शरीर की गतिविधि या अभिव्यक्ति को दूसरे व्यक्ति पर स्थानांतरित किया जाता है। Generative Adversarial Networks (GAN) का इस्तेमाल कर इसे और ‘विश्वसनीय’ बनाया जा सकता है। अधिकांश स्थितियों में यह पता करना बहुत ही कठिन हो जाता है कि दिखाया गया मीडिया असली है अथवा नकली। सॉफ्टवेयर डेवलपमेंट ओपन सोर्स कम्युनिटी GitHub पर भारी मात्रा में ऐसे सॉफ्टवेयर्स पाए जाते हैं जो डीपफेक बना सकने में सक्षम हैं। 

डीप फेक से नुकसान

किसी भी तकनीक का गलत इस्तेमाल विनाशकारी साबित हो सकता है। डीपफेक तथा झूठी खबरें भी इसका एक उदाहरण हैं। इससे किसी व्यक्ति का राजनतिक, सामाजिक, आर्थिक जीवन बर्बाद किया जा सकता है।इसका, इस्तेमाल कई क्षेत्रों में खतरनाक साबित हो सकता है।

उदाहरण के तौर पर नीचे दिखाए गए पूर्व अमेरिकी राष्ट्रपति बराक ओबामा के एक डीपफेक वीडियो से इस बात का अंदाजा लगाया जा सकता है कि इन्हें पहचान पाना कितना मुश्किल है तथा यह किसी समाज या देश के लिए कितना घातक साबित हो सकता है।

लोकतंत्र के लिए खतरा 

डीपफेक के इस्तेमाल से लोकतंत्र को अत्यधिक क्षति पहुँचाई जा सकती है। कल्पना कीजिए किसी चुनाव के दौरान उम्मीदवार का वीडियो जारी होता है जिसमें वो नफ़रती भाषण, नस्लीय टिप्पणी अथवा अल्पसंख्यक समुदायों के खिलाफ कोई गलत बयान दे रहा हो, इस प्रकार चुनाव प्रक्रिया को आसानी से प्रभावित किया जा सकता है। इसके अतिरिक्त डीप फेक का प्रयोग चुनाव परिणामों की अस्वीकार्यता या अन्य प्रकार की गलत सूचनाओं के लिये भी किया जा सकता है, जो एक लोकतांत्रिक व्यवस्था के लिये बड़ी चुनौती साबित होगा।

महिला सुरक्षा 

डीपफेक का इस्तेमाल पोर्नोग्राफ़ी में कई समय से किया जा रहा है, जिसमें पोर्नस्टार्स के चेहरों को बड़ी हस्तियों के चेहरों से बदलकर उनकी छवि को खराब किया जाता है। डीपफेक वीडियो बनाकर अधिकतर स्थितियों में महिलाओं को निशाना बनाया जाता है। ऐसी वीडियो का इस्तेमाल किसी व्यक्ति को मानसिक तथा सामाजिक तौर पर क्षति पहुँचाने के उद्देश्य से किया जाता है। इसके अतिरिक्त इनका उपयोग किसी व्यक्ति को डराने-धमकाने आदि के लिए भी किया जाता है। 

राष्ट्रीय सुरक्षा

डीपफेक जैसी तकनीक राष्ट्रीय सुरक्षा के लिए भी खतरे से कम नहीं है। इसके माध्यम से सांप्रदायिक दंगे, जातिवाद जैसे मुद्दों को बढ़ावा दिया जा सकता है। अफवाहों के कारण होने वाली मॉब लिंचिंग जैसी घटनाएं समय समय पर देखने को मिलती रहती है। सोशियल मीडिया की बढ़ती पहुँच तथा भारत में अशिक्षा के स्तर को देखा जाए तो डीपफेक जैसी तकनीक भारत के लिए किसी परमाणु हथियार से कम नहीं है।

अर्थव्यवस्था

डीपफेक का इस्तेमाल किसी कंपनी को आर्थिक रूप से क्षति पहुँचाने के लिए भी किया जा सकता है। माना कोई कंपनी व्यवसाय में निवेश करने के उद्देश्य से रकम जुटाने की कोशिश कर रही हो तथा उसी दौरान कंपनी के किसी निदेशक या बोर्ड के किसी सदस्य का कोई ऑडियो अथवा वीडियो क्लिप सोशियल मीडिया में वायरल हो जाए जिसमें वो अपनी कंपनी के उत्पाद के बारे में अपने डर को ज़ाहिर कर रहा हो तो ऐसे में कंपनी तथा अर्थव्यवस्था पर इसका बेहद नकारात्मक प्रभाव पड़ेगा। इसके अतिरिक्त बड़ी कंपनियों के प्रभावशाली लोगों की नकली ऑडिओ या वीडियो क्लिप शेयर बजार में भी अस्थिरता पैदा कर सकती है।

कैसे पहचानें फेक न्यूज

किसी भी संदिग्ध स्रोत जैसे सोशियल मीडिया, संदिग्ध वेबसाइट आदि में देखी गई सूचना पर तुरंत विश्वास न करें। आप ऐसी खबर को गूगल पर खोज कर उसकी पुष्टि कर सकते हैं। इसके अतिरिक्त किसी भी संदिग्ध खबर को उसकी पुष्टि हो जाने तक सोशियल मीडिया पर शेयर न करें। फॉटोशॉप के द्वारा भ्रामक तस्वीर बना कर झूठी खबरें फैलाना वर्तमान परिदृश्य में आम हो चुका है, अतः ऐसी किसी तस्वीर को गूगल इमेज सर्च का इस्तेमाल करते हुए जाँचा जा सकता है।

वहीं यदि डीपफेक तकनीक की बात करें तो समय के साथ यह अत्यधिक विकसित हो रही है जिससे किसी आम इंसान के लिए इसे पहचान पाना बेहद मुश्किल होगा। अतः ऐसे में सरकरों की जिम्मेदारी बढ़ जाती है कि इस क्षेत्र में कड़े नियमन की व्यवस्था करे, सामाजिक जागरूकता को बढ़ावा दे तथा डीपफेक मीडिया की पहचान करने हेतु आश्यक प्रौद्योगिकी के विकास को भी बढ़ावा दे। हालाँकि इस क्षेत्र में वैश्विक स्तर पर भी प्रयास किए जा रहे हैं हाल ही में स्टैनफोर्ड यूनिवर्सिटी और यूसी बर्कले के शोधकर्त्ताओं ने एक प्रोग्राम तैयार किया है जो कृत्रिम बुद्धिमत्ता का उपयोग कर डीप फेक वीडियो की पहचान करने में सक्षम है।

 

उम्मीद है दोस्तो आपको ये लेख (Deep Fake in Hindi) पसंद आया होगा टिप्पणी कर अपने सुझाव अवश्य दें। अगर आप भविष्य में ऐसे ही रोचक तथ्यों के बारे में पढ़ते रहना चाहते हैं तो हमें सोशियल मीडिया में फॉलो करें तथा हमारा न्यूज़लैटर सब्सक्राइब करें एवं इस लेख को सोशियल मीडिया मंचों पर अपने मित्रों, सम्बन्धियों के साथ साझा करना न भूलें।

5 2 votes
Article Rating
Subscribe
Notify of
0 Comments
Inline Feedbacks
View all comments
error: Content is protected !!