एलन मस्क के डीपफेक अमेरिका में धोखाधड़ी के नुकसान में अरबों डॉलर का योगदान दे रहे हैं
उसने सबसे पहले यह विज्ञापन फेसबुक पर देखा। और फिर टिकटॉक पर। जिसे देखने के बाद एलोन मस्क ही नजर आए बार-बार निवेश का अवसर प्रदान करते हुए, हेइडी स्वान ने सोचा कि यह सच होना चाहिए।
स्वान ने कहा, “बिल्कुल एलोन मस्क जैसा दिखता था, बिल्कुल एलोन मस्क जैसा लगता था और मुझे लगा कि यह वही है।”
उसने पिच के पीछे की कंपनी से संपर्क किया और 10,000 डॉलर से अधिक का खाता खोला। 62 वर्षीय स्वास्थ्यकर्मी ने सोचा कि वह एक व्यवसायी और निवेशक से क्रिप्टोकरेंसी में अरबों डॉलर का स्मार्ट निवेश कर रही है।
लेकिन स्वान को जल्द ही पता चल जाएगा कि कृत्रिम बुद्धिमत्ता का उपयोग करके हाई-टेक चोरों की एक नई लहर ने उसे धोखा दिया है डीपफेक.
यहां तक कि अब वीडियो को पीछे मुड़कर देखने पर भी, यह जानते हुए कि वे नकली हैं, स्वान को अभी भी लगता है कि वे विश्वसनीय लगते हैं।
“वे अभी भी एलोन मस्क की तरह दिखते हैं,” उसने कहा। “वे अभी भी एलोन मस्क की तरह लगते हैं।”
अमेरिका में डीपफेक घोटाले बढ़ रहे हैं
जैसे-जैसे कृत्रिम बुद्धिमत्ता तकनीक विकसित हो रही है और अधिक सुलभ होती जा रही है, इस प्रकार के घोटाले आम होते जा रहे हैं।
के अनुसार डेलॉयटएक अग्रणी वित्तीय अनुसंधान समूह, AI-जनित सामग्री ने पिछले साल धोखाधड़ी के नुकसान में $12 बिलियन से अधिक का योगदान दिया, और 2027 तक अमेरिका में $40 बिलियन तक पहुंच सकता है।
दोनों संघीय व्यापार आयोग और यह बेहतर बिजनेस ब्यूरो ने चेतावनी जारी की है कि डीपफेक घोटाले बढ़ रहे हैं।
ए अध्ययन एआई फर्म सेंसिटी द्वारा पाया गया कि एलोन मस्क डीपफेक घोटालों में इस्तेमाल होने वाले सबसे आम सेलिब्रिटी हैं। एक संभावित कारण उनकी संपत्ति और उद्यमिता है। दूसरा कारण उनके द्वारा किए गए साक्षात्कारों की संख्या है; ऑनलाइन किसी व्यक्ति की जितनी अधिक सामग्री होगी, विश्वसनीय डीपफेक बनाना उतना ही आसान होगा।
डीपफेक का एनाटॉमी
डेंटन में उत्तरी टेक्सास विश्वविद्यालय में प्रोफेसर क्रिस्टोफर मीरडो भी कृत्रिम बुद्धिमत्ता का उपयोग कर रहे हैं। लेकिन वह इसका उपयोग कला बनाने के लिए कर रहा है।
मीर्डो ने कहा, “यह रचनात्मक कलाओं का स्थान लेने वाला नहीं है।” “यह बस उन्हें बढ़ाने जा रहा है और चीजों को समझने के हमारे तरीके को बदल देगा जो हम रचनात्मकता के क्षेत्र में कर सकते हैं।”
भले ही मीर्डो कृत्रिम बुद्धिमत्ता को नवोन्वेषी होने के एक तरीके के रूप में देखता है, वह इसके खतरों को भी देखता है।
मीर्डो ने सीबीएस न्यूज टेक्सास आई-टीम को दिखाया कि कैसे घोटालेबाज एक वास्तविक वीडियो ले सकते हैं और किसी व्यक्ति की आवाज और मुंह की गतिविधियों को बदलने के लिए एआई टूल का उपयोग कर सकते हैं, जिससे वे कुछ पूरी तरह से अलग कहते प्रतीत होते हैं।
प्रौद्योगिकी में प्रगति से डीपफेक वीडियो बनाना आसान हो गया है। एआई से परिचित सभी व्यक्तियों को एक एकल स्थिर छवि और एक वीडियो रिकॉर्डिंग बनाने की आवश्यकता है।
इसे प्रदर्शित करने के लिए, मेर्डो ने एलोन मस्क का डीपफेक बनाने के लिए खोजी रिपोर्टर ब्रायन न्यू का एक वीडियो लिया।
ये एआई-जनरेटेड वीडियो शायद ही सही हों, लेकिन उन्हें किसी अनजान पीड़ित को धोखा देने के लिए पर्याप्त रूप से आश्वस्त करने की आवश्यकता है।
“यदि आप वास्तव में लोगों को धोखा देने की कोशिश कर रहे हैं, तो मुझे लगता है कि आप इसके साथ कुछ बहुत बुरे काम कर सकते हैं,” मीर्डो ने कहा।
आप डीपफेक को कैसे पहचान सकते हैं?
कुछ डीपफेक को दूसरों की तुलना में पहचानना आसान होता है; अप्राकृतिक होठों का हिलना या अजीब शारीरिक भाषा जैसे संकेत हो सकते हैं। लेकिन जैसे-जैसे तकनीक में सुधार होगा, केवल देखकर बताना कठिन हो जाएगा।
ऐसी वेबसाइटों की संख्या बढ़ रही है जो दावा करती हैं कि वे डीपफेक का पता लगा सकती हैं। तीन ज्ञात डीपफेक वीडियो और तीन प्रामाणिक वीडियो का उपयोग करते हुए, सीबीएस न्यूज़ टेक्सास आई-टीम ने इनमें से पांच वेबसाइटों को अवैज्ञानिक परीक्षण में डाला: डीपवेयर, अटेस्टीव, डीपफेक-ओ-मीटर, संवेदनशीलता और डीपफेक डिटेक्टर.
कुल मिलाकर, इन पांच ऑनलाइन टूल ने लगभग 75% बार परीक्षण किए गए वीडियो की सही पहचान की। आई-टीम परिणामों के साथ कंपनियों तक पहुंची; उनकी प्रतिक्रियाएँ नीचे हैं।
डीपवेयर
डीपवेयर, एक वेबसाइट जिसका उपयोग मुफ़्त है, शुरुआत में आई-टीम द्वारा परीक्षण किए गए दो नकली वीडियो को चिह्नित करने में विफल रही। एक ईमेल में, कंपनी ने कहा कि इस्तेमाल की गई क्लिप बहुत छोटी थीं और सर्वोत्तम परिणामों के लिए, अपलोड किए गए वीडियो 30 सेकंड से एक मिनट के बीच होने चाहिए। डीपवेयर ने उन सभी वीडियो की सही पहचान की जो लंबे थे। कंपनी के मुताबिक इसका डिटेक्शन रेट 70% इंडस्ट्री के लिए अच्छा माना जाता है।
अक्सर पूछे जाने वाले प्रश्न अनुभाग डीपवेयर की वेबसाइट कहती है: “डीपफेक अभी तक कोई सुलझी हुई समस्या नहीं है। हमारे परिणाम किसी विशिष्ट वीडियो के डीपफेक होने या न होने की संभावना का संकेत देते हैं।”
डीपफेक डिटेक्टर
डीपफेक डिटेक्टर, एक उपकरण जो प्रति माह $16.80 का शुल्क लेता है, ने नकली वीडियो में से एक की पहचान “97% प्राकृतिक आवाज़” के रूप में की। कंपनी, जो एआई-जनित आवाज़ों को पहचानने में माहिर है, ने एक ईमेल में कहा कि पृष्ठभूमि शोर या संगीत जैसे कारक परिणामों को प्रभावित कर सकते हैं, लेकिन इसकी सटीकता दर लगभग 92% है।
औसत उपभोक्ताओं के लिए मार्गदर्शन के बारे में एक सवाल के जवाब में, कंपनी ने लिखा: “हमारा टूल उपयोगकर्ता के अनुकूल बनाया गया है। औसत उपभोक्ता आसानी से हमारी वेबसाइट पर एक ऑडियो फ़ाइल अपलोड कर सकते हैं या सीधे सामग्री का विश्लेषण करने के लिए हमारे ब्राउज़र एक्सटेंशन का उपयोग कर सकते हैं। टूल होगा संभावनाओं का उपयोग करते हुए यह निर्धारित करने में सहायता के लिए एक विश्लेषण प्रदान करें कि क्या किसी वीडियो में डीपफेक तत्व शामिल हो सकते हैं, जिससे यह एआई तकनीक से अपरिचित लोगों के लिए भी सुलभ हो सके।”
अटेस्टीव
एटेस्टिव ने दो वास्तविक वीडियो को “संदिग्ध” के रूप में चिह्नित किया। कंपनी के सीईओ निकोस वेकियाराइड्स के अनुसार, ग्राफ़िक्स और संपादन जैसे कारकों से झूठी सकारात्मकता उत्पन्न हो सकती है। “संदिग्ध” के रूप में चिह्नित दोनों प्रामाणिक वीडियो में ग्राफिक्स और संपादन शामिल थे। साइट मुफ़्त सेवा प्रदान करती है, लेकिन इसमें एक भुगतान स्तर भी है, जहां उपभोक्ता अधिक गहन विश्लेषण के लिए सेटिंग्स और अंशांकन को समायोजित कर सकते हैं।
हालांकि वह स्वीकार करते हैं कि एटेस्टिव सही नहीं है, वेकियाराइड्स ने कहा कि चूंकि डीपफेक को नग्न आंखों से पहचानना कठिन हो जाता है, इसलिए समाधान के हिस्से के रूप में इस प्रकार की वेबसाइटों की आवश्यकता होती है।
वेकियाराइड्स ने कहा, “हमारा उपकरण यह निर्धारित कर सकता है कि कोई चीज संदिग्ध है या नहीं, और फिर आप इसे अपनी आंखों से सत्यापित करके कह सकते हैं, ‘मुझे लगता है कि यह संदिग्ध है।”
डीपफेक-ओ-मीटर
डीपफेक-ओ-मीटर बफ़ेलो विश्वविद्यालय और नेशनल साइंस फाउंडेशन द्वारा समर्थित एक और निःशुल्क उपकरण है। इसने दो वास्तविक वीडियो की पहचान एआई-जनरेटेड होने के उच्च प्रतिशत के रूप में की।
एक ईमेल में, ओपन प्लेटफॉर्म के निर्माता ने कहा कि डीपफेक डिटेक्शन मॉडल की एक सीमा यह है कि वीडियो संपीड़न से वीडियो और ऑडियो के साथ सिंक समस्याएं और असंगत मुंह की गतिविधियां हो सकती हैं।
रोजमर्रा के उपयोगकर्ता टूल का उपयोग कैसे कर सकते हैं, इस सवाल के जवाब में, कंपनी ने ईमेल किया: “वर्तमान में, उपयोगकर्ताओं को दिखाया जाने वाला मुख्य परिणाम इस नमूने का संभाव्यता मूल्य है जो विभिन्न पहचान मॉडलों में उत्पन्न नमूना है। इसे संदर्भ के रूप में इस्तेमाल किया जा सकता है यदि एकाधिक मॉडल विश्वास के साथ एक ही उत्तर पर सहमत होते हैं (उदाहरण के लिए, एआई-जनित के लिए 80% से अधिक या वास्तविक वीडियो के लिए 20% से कम)। हम वर्तमान में परिणाम दिखाने का एक अधिक समझने योग्य तरीका विकसित कर रहे हैं, साथ ही नए मॉडल भी विकसित कर रहे हैं जो आउटपुट दे सकते हैं व्यापक पहचान परिणाम।”
संवेदनशीलता
सेंसिटी के डीपफेक डिटेक्टर ने सभी छह क्लिपों की सही पहचान की, एक हीटमैप दिखाया जो दर्शाता है कि एआई हेरफेर की सबसे अधिक संभावना कहां है।
कंपनी अपनी सेवा का उपयोग करने के लिए नि:शुल्क परीक्षण अवधि प्रदान करती है और आई-टीम को बताया कि हालांकि यह वर्तमान में निजी और सार्वजनिक संगठनों के लिए तैयार की गई है, लेकिन इसका भविष्य का लक्ष्य प्रौद्योगिकी को सभी के लिए सुलभ बनाना है।