deepfake details in hindi

Deep fake क्या होता है? | What is deep fake in hindi

पोस्ट को share करें-

जहां एक तरफ आज के समय में technology दिन प्रति दिन उन्नत होती चली जा रही है, वही दूसरी तरफ इसका इस्तेमाल काफी तरह की चीजों को बनाने में लिया जा रहा है। कभी-कभी यह सारी चीज़े काफी अजीबो-गरीब भी होती है। आज Artificial Intelligence (A.I) का इस्तेमाल करके ऐसी-ऐसी नई technology बनायीं जा रही है।

जिनके कारण आज असली दुनिया और नकली बनावटी दुनिया में फर्क करना काफी मुश्किल होता जा रहा है। आज हम ऐसी ही एक technology के बारे में बात करने वाले है, जिसे Deep fake कहा जाता है। तो आइए जानते है इसके बारे में कुछ ऐसी बाते जो शायद ही आपको मालूम हों।

Deep fake क्या है?

यह एक ऐसी टेक्नोलॉजी है जिसकी मदद से किसी video या photo में मौजूद किसी व्यक्ति को बड़ी आसानी से किसी और दूसरे व्यक्ति में बदल दिया जाता है। यह एक तरह के artificial intelligence (A.I) तकनीक का इस्तेमाल करती है, जिसे “deep learning” कहा जाता है। और इसी कारण इससे बनाए गए events को deep fake कहा जाता है।

 हालाँकि नकली video और photo तैयार करने का काम कोई नया नही है, मगर यह टेक्नोलॉजी उन्नत machine learning और artificial intelligence का इस्तेमाल करके काफी ज्यादा high quality की वीडियो और तस्वीर तैयार करती है, जिसे देखकर कोई भी आसानी से भ्रमित हो सकता है| इसको बनाने में उन्नत न्यूरल नेटवर्क architecture का इस्तेमाल किया जाता है, जैसे की autoencoders या generative adversarial networks (GANs)।

आज इस तकनीक का इस्तेमाल काफी बड़ी संख्या में किसी सेलिब्रिटी के अश्लील वीडियो, फ़र्ज़ी समाचार, वित्तीय धोखाधड़ी के इरादे से बनाए गए videos और तस्वीरों में किया जाता है। इसी कारण आज यह सरकार और इसे बनाने वाली industry दोनों की ज़िम्मेदारी बनती है, की इन सभी नकली सामग्री को पहचाने और इसके गलत इस्तेमाल को सीमित करे। 

Deep fake का इतिहास? (History of deep fake?)

किसी तस्वीर से छेर-छार का काम और उसकी मदद से नकली तस्वीर बनाने का काम तो 19th century से ही शुरु हो गया था। तब इस काम को motion pictures के ऊपर किया जाता था। धीरे-धीरे टेक्नोलॉजी उन्नत हुई और यह छेर-छार का काम 20th century तक digital videos के ऊपर भी किया जाने लगा और नकली videos बनाए जाने लगे।

1990 के दशक के शुरुवात में deep fake तकनीक पर शोधकर्ताओं द्वारा कई शैक्षणिक संस्थानों में शोध किया जाता था। बाद में इसे कई online समुदाय द्वारा भी विकसित किया गया, जहाँ amateurs यानि टेक्नोलॉजी के शौकीन व्यक्ति इस पर काम करते थे। हाल ही में इस तकनीक को कई सारे उद्योगों द्वारा भी अपनाया गया है।

इस deep fake नाम की शुरुवात 2017 के अंतिम दिनों में एक Reddit यूज़र के कारण हुई थी, जिसका नाम “deepfakes” था, जिसने इस तकनीक का इस्तेमाल करके कई सारे videos बनाए थे। उसके videos में किसी अश्लील फिल्म की अभिनेत्री पर किसी प्रसिद्ध हस्ती का चेहरा लगा हुआ होता था, जो देखने में बिल्कुल असली जैसा लगता था। जबकि गैर-अश्लील सामग्री में अभिनेता Nicolas Cage के चेहरे के साथ कई वीडियो शामिल थे, जिन्होंने विभिन्न फिल्मों में काम किया हुआ है।

क्या यह सिर्फ वीडियो के बारे में है?

नही, इस टेक्नोलॉजी का इस्तेमाल करके आज video के अलावा कई सारे ऐसी तस्वीरे भी बनायीं जा रही, जिन्हें पहचानना आम लोगों की बस की बात नहीं। इन्हें सिर्फ बेहतरीन स्कैनिंग तकनीकों की मदद से ही पहचाना जा सकता है। नंगी आँखों से देखने पर इन नकली तस्वीरों को असली से अलग करना काफी ज्यादा मुश्किल है।

आज social media में कई ऐसे नकली account बने हुए है, जिनमे इस तकनीक का इस्तेमाल करके बनाए गए तस्वीरों को लगाया गया है। आज LinkedIn और Twitter पर कई ऐसे account मिलेंगे, जो आम तौर पर दिखने में असली लगते है, मगर असलियत में यह सभी deep fake तकनीक के इस्तेमाल से बनाए जाते है, जो किसी के ऊपर निगरानी के काम आते है।  

तस्वीरों के अलावा भी deep fake तकनीक के इस्तेमाल से नकली audio यानि आवाज़े तक बनायीं जा सकती है। हाल ही में, एक German ऊर्जा firm की ब्रिटेन की सहायक कंपनी के प्रमुख ने जर्मन CEO की आवाज़ की नकल करने वाले धोखेबाज़ द्वारा फोन किए जाने के बाद Hungarian bank  खाते में लगभग £ 200,000 यूरो का भुगतान किया। कंपनी के बीमाकर्ताओं का मानना था कि यह एक deep fake आवाज़ थी, लेकिन इसके सबूत स्पष्ट नहीं थे।

इसके अलावा भी आज के समय इसका इस्तेमाल करके कई सारे नकली whatsApp voice रिकॉर्डिंग भी भेजे जाते है, जिसमे किसी जाने-माने व्यक्ति की आवाज़ की नक़ल में कुछ संदेश होते है| जिन्हें सुनकर काफी लोग भ्रमित हो सकते है।

Deep fake को कैसे बनाया जाता है? (How deep fakes are made?)

एक face-swap वीडियो बनाने के लिए कुछ तरीकों का इस्तेमाल किया जाता है, जैसे की सबसे पहले उन दो लोगों की काफी सारी तस्वीरे ली जाती है, जिन्हें आपस में बदलना होता है। यह तस्वीरे हर एंगल से ली हुई होती है। इसके बाद इन तस्वीरों को एक साथ एक AI algorithm की मदद से scan किया जाता है, जिसे encoder कहा जाता है। इस algorithm की मदद से दोनों व्यक्तियों की तस्वीरों में समानताएं खोजी जाती है, और प्रक्रिया में तस्वीरों को संपीड़ित करने के लिए उन्हें उनकी साझा सामान्य विशेषताओं में compress कर दिया जाता है।   

इसके अलावा एक दूसरे AI algorithm का भी इस्तेमाल होता है, जिसे decoder कहा जाता है। इसकी मदद से compress किए हुए तस्वीर से चेहरे को recover किया जाता है। क्युकि यहाँ दो अलग-अलग चेहरे होते है, इसलिए एक decoder को पहले इंसान के चेहरे को recover करने के लिए ट्रेन किया जाता है, और दूसरे decoder को दूसरे चेहरे को।

अब चेहरे की अदला-बदली करने के लिए, बस encoded चित्रों को “गलत” decoder में feed किया जाता है। उदाहरण के लिए, व्यक्ति A के चेहरे की एक संकुचित छवि व्यक्ति B पर प्रशिक्षित decoder में feed कर दी जाती है। जिस कारण decoder फिर व्यक्ति A के भाव और अभिविन्यास के साथ व्यक्ति B के चेहरे का पुनर्निर्माण कर देता है। एक ठोस video प्राप्त करने के लिए, इस प्रक्रिया को हर फ्रेम पर दोहराया जाता है।

deep fake image

इन्हें कौन बनाता है? (who create deep fake)

औद्योगिक और शैक्षिक शोधकर्ताओं से लेकर शौकिया उत्साही लोग, visual effects स्टूडियो से लेकर पोर्न प्रोड्यूसर तक, हर कोई आज इन्हें बना रहे है। इन्हें सरकारों द्वारा भी लक्षित व्यक्तियों के साथ संपर्क बनाने के लिए या उनकी ऑनलाइन रणनीतियों के हिस्से के रूप में इस्तेमाल किया जाता है।

हमे इसे बनाने के लिए कौन सी तकनीक चाहिए?

किसी साधारण computer पर अच्छे deep fake को बनाना संभव नही है। इन्हें ज्यादा तर high-end कंप्यूटर पर बनाया जाता है, जिनमे काफी ताक़तवर graphics cards का इस्तेमाल किया जाता है। साथ ही इनकी computing पॉवर cloud computing की मदद से तैयार की जाती है। इन सब की मदद से इस मुश्किल process को कई दिनों और हफ्तों से घटाकर, कुछ घंटो में पूरा कर लिया जाता है।

हालाँकि आज ऐसे काफी सारे tools मौजूद है, जिनकी मदद से इसे बनाया जा सकता है, मगर इन सब के अलावा एक deep fake को तैयार करने के लिए किसी expert की जरुरत पड़ती है, जिन्हें इस विषय में अच्छी-खासी जानकारी हो। साथ ही आज ऐसी कई कंपनियाँ मौजूद है, जो हमारे लिए इसे बना देती है, जो अपना सारा काम cloud के ऊपर करती है।

यहां तक कि आज मोबाइल फोन app भी मौजूद है, जो इस काम को करते है। जैसे “Zao”, जो उपयोगकर्ताओं को अपने चेहरे को T.V. और movie छात्रों के चेहरों में जोड़ने की सुविधा देता है, जिस पर सिस्टम को प्रशिक्षित किया गया है।

Deep fake को कैसे पहचाने? (how to detect deep fake)

टेक्नोलॉजी की तरक्की की साथ deep fake वीडियो को पहचानना दिन-प्रतिदिन मुश्किल होता चला जा रहा है। साल 2018 में अमेरिका के researchers ने यह खोजा था की, आम तौर पर किसी deep fake वीडियो में मौजूद लोग अपनी आँखों की पलक नही झपकाते। क्युकि इन्हें तस्वीरों की मदद से तैयार किया जाता है, जिनमे लोगों की आँखे अक्सर खुली होती है। इसी कारण कोई algorithm आँखों की पलक झपकने की नक़ल तैयार नही कर पता है। 

इसे काफी बड़ी खोज माना गया, जिसकी मदद से किसी deep fake वीडियो को आसानी से पहचाना जा सकता था। मगर इस research के publish होते ही, टेक्नोलॉजी में भी बदलाव आया और नकली वीडियो में भी अब पलक झपकने का दृश्य तैयार किया जाने लगा। यह एक तरह का अजीब वाक़या था, जैसे ही एक कमज़ोरी का पता चलता है, उसे ठीक कर लिया जाता है ।

इसके अलावा ख़राब quality की deepfakes को आसानी से पहचाना जा सकता है। इनमें होठों की movement पीछे चल रहे background आवाज़ से मेल नही खाती, साथ ही इनमे lighting और skin टोन भी काफी विचित्र सा लगता है। बुरी तरह से प्रदान किए गए आभूषण और अजीब तरह के दांत भी इन deepfakes को पहचानने का एक तरीका हो सकता है।   

इनसे कैसे बचा जाए?

इस सवाल का जवाब होगा Artificial intelligence (A.I)। आज इन्ही का इस्तेमाल करके deep fake वीडियो और तस्वीरों को पकड़ा जाता है, मगर इन systems में भी काफी सारी कमियां है। यह systems ज्यादा तर प्रसिद्ध हस्तियों की तस्वीरों और videos के ऊपर ज्यादा अच्छे से काम करती है| क्युकी इनकी काफी सारी footage आसानी से उपलब्ध होती है, जिसकी मदद से A.I system को अच्छी तरह से ट्रेन किया जा सकता है।

आज काफी सारी टेक्नोलॉजी कंपनियाँ इन detection systems को और अच्छा बनाने के लिए काम कर रही है। Digital watermark भी यहाँ ज्यादा उपयोगी नहीं हैं, लेकिन एक blockchain ऑनलाइन लेज़र system वीडियो, चित्र और ऑडियो का एक छेड़छाड़-प्रूफ record रख सकता है, ताकि उनकी उत्पत्ति और किसी भी हेरफेर को हमेशा जांचा जा सके।

क्या deep fake हमेशा खतरनाक होते है?

बिलकुल नही, deepfakes हमेशा खतरनाक और नुकसानदायक नही होते। इनमे से काफी सारे मनोरंजक भी होते है, साथ ही इनके इस्तेमाल से काफी लोगों की मदद भी की जाती है। उदाहरण के लिए, जब किसी व्यक्ति की आवाज़ किसी गंभीर बीमारी के कारण चली जाती है, तब उसे “Voice-cloning” deep fake की मदद से दोबारा तैयार किया जा सकता है।  

साथ ही आज काफी सारे museums में इस तकनीक की मदद से अच्छे-अच्छे shows भी बनाये जाते है, ताकि लोगों को एक अच्छा अनुभव प्रदान किया जा सके। मनोरंजन उद्योग के लिए, विदेशी भाषा की फिल्मों पर dubbing को बेहतर बनाने के लिए भी इस तकनीक का उपयोग किया जाता है। और तो और इसके इस्तेमाल से मृत अभिनेताओं को पुनर्जीवित करना का experiment भी परदे पर किया जा रहा है। 

हमे अपनी तरफ से क्या-क्या रखनी चाहिए सावधानियां?

ऐसे कुछ उपाय है जिनका इस्तेमाल करके हम इन deepfakes का शिकार होने से बच सकते है। जैसे की-

  • जितना हो सके हमे अपनी तस्वीरों को सोशल मीडिया पर upload करने से बचना चाहिए।
  • अपनी अलग-अलग angles से ली गयी तस्वीर को ज्यादा share नही करना चाहिए, क्युकी इन का इस्तेमाल करके आसानी से deepfakes बनाया जा सकता है।
  • खुद को हमे अच्छी तरह ट्रेन करना चाहिए, ताकि हम deepfakes को आसानी से पहचान सके।
  • अपनी files को हमे internet पर अच्छी तरह से सुरक्षित रखना चाहिए और कभी इन्हें किसी गलत websites पर नही डालना चाहिए।
  • हमेशा अच्छे VPN का इस्तेमाल करके अपने नेटवर्क को safe रखना चाहिए, ताकि कोई इसे चैक करके हमारी files को ना चुरा सके।
  • कभी किसी अंजान व्यक्ति के साथ अपनी तस्वीरों को share नही करना चाहिए।
  • हमेशा अपने system के passwords को बदलते रहना चाहिए, ताकि हमारा system सुरक्षित बना रहे।  
  • अपने कंप्यूटर या लैपटॉप पर हमेशा अच्छे antivirus और internet security softwares का इस्तेमाल करना चाहिए, ताकि internet के ऊपर हमारा data और system सुरक्षित रहे।       इत्यादि।  

आशा करता हूं कि आज आपलोंगों को कुछ नया सीखने को ज़रूर मिला होगा। अगर आज आपने कुछ नया सीखा तो हमारे बाकी के आर्टिकल्स को भी ज़रूर पढ़ें ताकि आपको ऱोज कुछ कुछ नया सीखने को मिले, और इस articleको अपने दोस्तों और जान पहचान वालो के साथ ज़रूर share करे जिन्हें इसकी जरूरत हो। धन्यवाद।


पोस्ट को share करें-

Similar Posts

One Comment

  1. Great tremendous things here. I am very happy to look your post. Thanks so much and i am having a look forward to contact you. Will you kindly drop me a e-mail?

Leave a Reply

Your email address will not be published. Required fields are marked *