AI से बनाए गए वीडियो या छवियों को पहचानने के लिए युक्तियाँ और युक्तियाँ

AI द्वारा बनाए गए वीडियो और छवियों की पहचान कैसे करें

हाल के दिनों में आर्टिफिशियल इंटेलिजेंस चर्चा का विषय बन गया है अनेक क्षेत्रों में. कार्यस्थल में उत्पादकता से लेकर मल्टीमीडिया सामग्री के निर्माण तक। एआई का उपयोग करके बनाए गए वीडियो या छवियों की पहचान करने के लिए विचार करने के लिए तकनीकें और अनुभाग हैं। इस लेख में हम उनमें से कुछ सबसे प्रसिद्ध चीज़ों का पता लगाएंगे, और डीपफेक से बचने के लिए कुछ विवरणों और मुद्दों पर कैसे ध्यान दें।

सबसे पहले आपको यह समझना होगा कि डीपफेक शब्द का तात्पर्य क्या है, वे कैसे बनाए जाते हैं और उनके क्या निहितार्थ हो सकते हैं। एआई द्वारा बनाए गए वीडियो या चित्र बेहद वास्तविक लग सकते हैं, लेकिन दुरुपयोग से कानूनी टकराव भी हो सकता है।

AI द्वारा बनाए गए वीडियो या चित्र, डीपफेक क्या है?

L डीपफेक जटिल आर्टिफिशियल इंटेलिजेंस एल्गोरिदम से बनाए गए नकली वीडियो और तस्वीरें हैं।. उनका उपयोग यह दिखाने के लिए किया जाता है कि कोई व्यक्ति ऐसी चीजें करता है या कहता है जो वास्तव में नहीं हुई थीं। आर्टिफिशियल इंटेलिजेंस की प्रगति ने नकली वीडियो का पता लगाना कठिन बना दिया है। रचनाएँ लगभग अगोचर हैं, लेकिन एआई द्वारा वीडियो या छवियों को पहचानने की कुछ तरकीबें हैं जो आपकी मदद कर सकती हैं। हमेशा यह मानते हुए कि आपको सोशल नेटवर्क पर जो कुछ भी दिखता है उस पर विश्वास नहीं करना चाहिए।

चेहरे की आकृति; कान और उंगलियाँ

पहली विशेषता जिस पर प्रयास करने के लिए हमें अवश्य ध्यान देना चाहिए फर्जी वीडियो की पहचान चेहरा से करें. चेहरे का आकार और विशेषकर कान आपको यह संकेत दे सकते हैं कि वीडियो नकली है या नहीं। यह चेहरे की विषमता के कारण है, जिसे एआई का उपयोग करके पूरी तरह से अनुकरण करना बहुत जटिल है। यह हेरफेर का सबसे बड़ा संकेतक है और इसे विशेष रूप से उंगलियों और कानों में देखा जा सकता है।

आर्टिफिशियल इंटेलिजेंस का उपयोग करके छवियों के प्रसिद्ध निर्माता क्रिस उमे ने कॉरिडोर क्रू यूट्यूब चैनल को बताया कि चेहरे का आकार हमेशा सुराग प्रकट करता है। आईए आंकड़ों में सबसे बड़ा असंगत बिंदु आमतौर पर कान और उंगलियां हैं। यदि आप वास्तविक छवियों और डीपफेक वीडियो या फ़ोटो में अंतर कर सकते हैं, तो इस विवरण पर ध्यान दें।

दृश्य विफलता

जबकि AI से बनाए गए चित्र और वीडियो वे बेहद विश्वसनीय लग सकते हैं, कुछ ऐसे कोण हैं जहां खामियां दिखाई देती हैं। सबसे आम बात यह है कि जब हम छवि को एक तरफ मोड़ते हैं तो उनका पता चलता है। स्वतंत्र संगठन फुल फैक्ट यूनाइटेड किंगडम में डेटा को सत्यापित करने के लिए समर्पित है और "एआई तकनीक में संभावित त्रुटियों का पता लगाने के लिए वीडियो को धीमा करने" की सिफारिश करता है। ऐसा इसलिए है क्योंकि ऐसे विशिष्ट बिंदु और क्षण हैं जिनमें आर्टिफिशियल इंटेलिजेंस तकनीक वीडियो के वास्तविक भाग से पूरी तरह मेल नहीं खाती है।

वीडियो या छवियों में AI द्वारा बनाई गई अभिव्यक्तियाँ और इशारे

की एक और कुंजी AI-परिवर्तित छवियों का पता लगाएं वे भाव और भंगिमाएं हैं। इस प्रकार की जानकारी को सॉफ्ट बायोमेट्रिक्स के रूप में जाना जाता है और यह लोगों में विसंगतियों का पता लगाने में मदद कर सकती है। प्रसिद्ध लोगों के बारे में वीडियो और छवियों में, एआई टूल के संचालन में इन विसंगतियों को ढूंढना बहुत आम है।

"डीपफेक" तकनीकों में अभी भी इन इशारों का पता लगाने में समस्याएँ आ रही हैं। इसीलिए आमतौर पर वहां विसंगतियां या बिना संपर्क वाले बिंदु पाए जाते हैं। यह विश्लेषण करने और यह पता लगाने का प्रयास करने के लिए एक दिलचस्प अनुभाग है कि यह वास्तविक वीडियो है या नहीं।

आँख संरेखण

आंखें किस प्रकार संरेखित हैं, इस पर ध्यान देना भी प्रयासों का पता लगाने में बहुत उपयोगी हो सकता है आर्टिफिशियल इंटेलिजेंस से धोखा. अलग-अलग समय पर वीडियो को ज़ूम करने और रोकने का प्रयास करें। अगर आंखें एक ही दिशा में फोकस नहीं कर रही हैं तो यह आर्टिफिशियल इंटेलिजेंस के कारण बदलाव हो सकता है। नेत्र समन्वयन एक और विवरण है जिसमें खामियां देखी जाती हैं। एआई तकनीक अभी तक मानव शरीर के इस तालमेल को स्थायी रूप से बनाए नहीं रख सकती है। उमे के अनुसार, स्थिर फ्रेम में इसे नोटिस करना आसान है।

डीपफेक से बचें

आवाज और वीडियो तुल्यकालन

अंत में, एक महत्वपूर्ण संकेत डीपफेक की पहचान करें यह आवाज और वीडियो के बीच सही तालमेल है। ऐसा उस आकार के कारण होता है जो मुंह तब अपनाता है जब हम कुछ विशेष ध्वनियों का उच्चारण करते हैं। आर्टिफिशियल इंटेलिजेंस तकनीक में आमतौर पर इस प्रकार की ध्वनियों को सही ढंग से सिंक्रनाइज़ करने में समस्याएँ होती हैं। जब यह पता लगाने की बात आती है कि किसी वीडियो या फोटो के साथ डिजिटल रूप से छेड़छाड़ की गई है, तो यह एक अच्छा उपकरण है।

निष्कर्ष

के समय में बाद सच्चाई, यह पता लगाना आवश्यक है कि कोई वीडियो वास्तविक है या उसके साथ छेड़छाड़ की गई है। जब आप कोई छवि या वीडियो देखते हैं और संदेह करते हैं, तो अन्य स्रोतों को खोजना याद रखें और जांचें कि क्या अन्य कोणों से भी तस्वीरें हैं। इंटरनेट एक महान उपकरण है, लेकिन ऐसे लोग भी हैं जो लोगों की प्रतिष्ठा को बर्बाद करने की कोशिश में गलत जानकारी फैलाते हैं या बस मजाक उड़ाते हैं। इसीलिए हमें कुछ उपायों को ध्यान में रखना चाहिए जो हमें किसी फोटो या वीडियो की सत्यता की पुष्टि करने की अनुमति देते हैं। अन्यथा, आर्टिफिशियल इंटेलिजेंस, उन उपयोगों के आधार पर एक खतरनाक उपकरण बन जाता है जो उपयोगकर्ता इसे देने का निर्णय लेते हैं। इन तकनीकों से आप डीपफेक का पता लगाने के लिए थोड़ा और अधिक तैयार हो सकते हैं।


अपनी टिप्पणी दर्ज करें

आपका ईमेल पता प्रकाशित नहीं किया जाएगा। आवश्यक फ़ील्ड के साथ चिह्नित कर रहे हैं *

*

*

  1. डेटा के लिए जिम्मेदार: एक्स्ट्रीमिडाड ब्लॉग
  2. डेटा का उद्देश्य: नियंत्रण स्पैम, टिप्पणी प्रबंधन।
  3. वैधता: आपकी सहमति
  4. डेटा का संचार: डेटा को कानूनी बाध्यता को छोड़कर तीसरे पक्ष को संचार नहीं किया जाएगा।
  5. डेटा संग्रहण: ऑकेंटस नेटवर्क्स (EU) द्वारा होस्ट किया गया डेटाबेस
  6. अधिकार: किसी भी समय आप अपनी जानकारी को सीमित, पुनर्प्राप्त और हटा सकते हैं।