Investigating AI Audio Deepfakes
Investigating AI Audio Deepfakes

Image: Shutterstock

संसाधन

» टिपशीट

आलेख

फर्जी एआई ऑडियो की जांच कैसे करें

इस लेख को पढ़ें

आजकल आर्टिफिशियल इंटेलिजेंस (एआई) का उपयोग करके किसी व्यक्ति का नकली ऑडियो अथवा वीडियो बनाना संभव है। दुनिया भर में चुनावों के दौरान इनका दुरूपयोग करके भ्रम फैलाने के उदाहरण सामने आ रहे हैं। वर्ष 2024 में कई देशों में चुनावों के आलोक में ऐसे खतरों को समझना किसी भी खोजी पत्रकार के लिए बेहद जरूरी है। कुछ उदाहरण देखें:

  1. अक्टूबर 2023 में स्लोवाकिया में चुनाव से महज 48 घंटे पहले एक विपक्षी नेता की आवाज़ का एआई से बनाया गया नकली ऑडियो क्लिप सामने आया। इसके कारण चुनाव में रूस समर्थक उम्मीदवार को लाभ मिला।
  2. एआई से बना एक नकली ऑडियो पाकिस्तान में सामने आया। एक उम्मीदवार के असली वीडियो में नकली आवाज जोड़कर मतदाताओं से फरवरी 2024 के आम चुनाव का बहिष्कार करने का आह्वान किया गया था।
  3. जनवरी 2024 में बांग्लादेशी चुनावों से पहले कुछ सस्ते वाणिज्यिक एआई जनरेटर का उपयोग करके बनाए गए कई नकली क्लिप्स ने मतदाताओं का ध्यान आकर्षित किया। इनमें प्रतिद्वन्द्वी उम्मीदवारों द्वारा तत्कालीन प्रधानमंत्री के खिलाफ आरोप लगाए गए थे।
  4. अमेरिका में राष्ट्रपति जो बिडेन की नकली आवाज़ वाले एक ऑडियो क्लिप में मतदाताओं से एक प्रमुख राज्य के प्राथमिक चुनाव में वोट नहीं डालने का आग्रह किया गया था।

विशेषज्ञ मानते हैं कि 2024 का ऐतिहासिक चुनावी वर्ष एआई द्वारा संचालित डीपफेक का वर्ष होने वाला है। ऐसे खतरे वाले लोकतांत्रिक देशों में इसके विनाशकारी परिणाम होंगे। ताजा रिसर्च के अनुसार, लगभग आधी जनता के लिए असली और एआई से बनी नकली फोटो के बीच का फर्क समझना मुश्किल है। सामान्य मतदाता किसी नकली ऑडियो या डीपफेक संवाद के सच का पता नहीं लगा सकते हैं। ऐसे नकली क्लिप बनाने की तकनीक में लगातार विकास हो रहा है। डीपफेक में सिंथेटिक मीडिया का उपयोग करके किसी तस्वीर में बेहद महीन बदलाव कर दिया जाता है। इसमें किसी व्यक्ति की डिजिटल रिकॉर्डिंग की वॉयस क्लोनिंग करके उसका डिजिटल अवतार बनाना और किसी का चेहरा बदलने के लिए “फेस-स्वैप“ करना भी शामिल है। इसके लिए कई तरह के टूल का उपयोग किया जाता है।

इंटरनेट पर डीपफेक सामग्री का एक बड़ा हिस्सा व्यक्तिगत दुश्मनी से प्रेरित है। नारीद्वेष (मिसोगिनी) के लिए भी इसका दुरूपयोग हो रहा है। इसमें किसी महिला की नकली फोटो, ऑडियो या वीडियो बनाकर अपमानित करना शामिल है। महिला पत्रकारों पर हमला करने के लिए भी इस रणनीति का उपयोग किया जा रहा है।

नकली ऑडियो से 2024 चुनावों में क्या खतरा है?

मीडिया फर्जीवाड़े के जांचकर्ताओं ने जीआईजेएन को इस संबंध में महत्वपूर्ण जानकारी दी है। मशीन लर्निंग टूल द्वारा किसी व्यक्ति की वास्तविक आवाज को क्लोन किया जाता है। फिर एआई का उपयोग करके इसका नकली ऑडियो बनाकर फर्जी संदेश तैयार किया जाता है। वर्ष 2024 और 2025 के चुनावों में यह फर्जी वीडियो (चीप फेक) से भी बड़ा खतरा बनकर उभर सकता है। इसका एक कारण यह भी है कि डीप फेक ऑडियो बनाना बेहद आसान और सस्ता है।

फर्जी वीडियो को ‘चीप फेक‘ भी कहा जाता है। चुनावी दुष्प्रचार में चीप फेक वीडियो  का पहले से ही काफी उपयोग हो चुका है। इसमें किसी वीडियो को काट-छांटकर दूसरे वीडियो अथवा ऑडियो क्लिप से जोड़ दिया जाता है। इनमें कैप्शन को मनमाने तरीके से बदल दिया जाता है। ऐसी हेराफेरी करने वाले लोग इन चीजों का उपयोग स्वचालित रोबोकॉल के द्वारा गलत सूचना प्रसारित करने के लिए भी करते हैं। खासकर वृद्ध तथा अत्यधिक सक्रिय मतदाताओं को ऐसे दुष्प्रचार का शिकार बनाया जा सकता है। रोबोकॉल की उत्पत्ति का पता लगाना खोजी पत्रकारों के लिए अब भी एक बड़ी चुनौती है।

StopFake.org – यह एक स्वतंत्र यूक्रेनी तथ्य-जांच (फैक्ट-चेक) संगठन है। इसकी सह-संस्थापक एवं पत्रकारिता प्रशिक्षक ओल्गा युरकोवा ने कहा – “एआई से बने फेक ऑडियो बहुत बड़ा खतरा पैदा कर सकते हैं। डीपफेक वीडियो की तुलना में फेक ऑडियो बनाना आसान और सस्ता है। नंगी आंखों से इनकी सच्चाई का पता लगाने के लिए बेहद कम सुराग मिलते हैं। साथ ही, इनके वायरल होने की काफी अधिक संभावना है, खासकर व्हाट्सएप चैट के माध्यम से।”

वह आगे कहती हैं, “इनका विश्लेषण करना काफी जटिल है। नकली वीडियो की तुलना में नकली ध्वनि निर्माण उपकरण काफी उन्नत हैं। आवाज के नमूने की जांच करने और वर्णक्रम का विश्लेषण करने के लिए काफी कौशल और समय लगता है। इसके बावजूद कोई गारंटी नहीं है कि परिणाम सटीक होगा। इसके अलावा, डीपफेक तकनीक का सहारा लिए बिना ही नकली ऑडियो बनाने के भी कई तरीके हैं।

डेटा जर्नलिज्म प्रशिक्षक सामंथा सुन्ने के अनुसार “मीडिया संगठनों को चुनावों में काफी सतर्क रहना होगा। एआई से बने ऑडियो फेक का खतरा अचानक काफी बढ़ गया है। इसकी जांच के लिए अब तक पर्याप्त शोध भी नहीं हुए हैं। डीपफेक तकनीक तेजी से बदल रही है। इसकी पहचान और निगरानी के उपकरण भी बदल रहे हैं।“

कई फैक्ट-चेक संगठनों और लोकतंत्र समर्थक कुछ एनजीओ द्वारा संदिग्ध वायरल चुनाव सामग्री का विश्लेषण किया जाता है। इसके माध्यम से नागरिक समूहों और समाचार कक्षों को मदद का प्रयास किया जा रहा है। जैसे, WITNES ) नामक एक मानवाधिकार सशक्तिकरण एनजीओ ने पिछले वर्ष एक पायलट ‘डीपफेक रैपिड रिस्पांस प्रोजेक्ट‘  शुरू किया। इसमें दर्जनों संदिग्ध ऑडियो क्लिप का विश्लेषण करने के लिए लगभग 40 अनुसंधान और वाणिज्यिक विशेषज्ञों का सहयोग लिया गया।

‘डीपफेक रैपिड रिस्पांस प्रोजेक्ट‘ की प्रबंधक शिरीन एनलेन ने जीआईजेएन के साथ एक साक्षात्कार में कहा- “नकली एआई ऑडियो बनाना सबसे आसान काम है। लेकिन इसका पता लगाना सबसे कठिन काम प्रतीत होता है। ऐसे फर्जी ऑडियो चुनावों में  झूठ फैलाने के लिए बनाए जाते हैं।“

शिरीन एनलेन कहती हैं- “हमने पाया कि हम ऑडियो की जांच के लिए उतने तैयार नहीं हैं जितना कि हम वीडियो के लिए थे। यही अंतर हम अभी देख रहे हैं। वर्ष 2023 में प्रभावशाली नकली एआई ऑडियो के काफी उच्च अनुपात में उपयोग से शोधकर्ता हैरान थे। चुनाव या मानवाधिकारों पर गहरा प्रभाव डालने वाले छह ऑडियो की हमने जांच की। उनमें से चार ऑडियो फर्जी थे।“

उन्होंने कहा- “ऐसा लगता है कि चुनावों और संकट वाले क्षेत्रों में फर्जी ऑडियो का उपयोग अधिक किया जाता है। विभिन्न प्लेटफार्मों या रोबोकॉल के माध्यम से इसे बनाना और फैलाना आसान है। यह बहुत व्यक्तिगत भी है। इसमें हेराफेरी का पता लगाने के लिए आपको अक्सर उस व्यक्ति को जानने की ज़रूरत होती है, कि वह किस तरह से बात करते हैं। ऐसे फर्जी ऑडियो में डबल-ऑडियो और बैकग्राउंड में शोर, संगीत, तथा क्रॉस-टॉकिंग जोड़ दिया जाता है। यह सभी चीजें फर्जी ऑडियो की पहचान को और अधिक जटिल बनाती हैं। जबकि फर्जी वीडियो में आप किसी हेराफेरी को आसानी से देख सकते हैं। चेहरे में थोड़ी भी गड़बड़ी या हावभाव के फर्क से उसकी जांच करना संभव हो पाता है।“

किसी डीपफेक वीडियो में गड़बड़ियों और उसकी इमेज में हेरफेर का पता लगाना आसान है। जबकि ऑडियो डीपफेक का पता लगाना अक्सर अधिक कठिन होता है। इमेज: शटरस्टॉक

शिरीन एनलेन ने यह भी स्पष्ट किया कि “वीडियो की जांच या डिटेक्शन का काम भी अब तक फर्जी वीडियो बनाने की तकनीकों से पीछे है। टेक्स्ट-टू-वीडियो के लिए एक नया ओपन एआई टूल Sora भी सामने आया है। इसके जरिए बिल्कुल असली लगने जैसा फर्जी वीडियो बनाना संभव है। बुजुर्ग मतदाताओं के बीच आम तौर पर मीडिया साक्षरता की कमी है। इसके कारण ऑडियो फेक और एआई द्वारा संचालित रोबोकॉल का खतरा बढ़ जाता है। जो लोग एक्स (ट्विटर) या टिकटॉक का उपयोग नहीं करते, उनके लिए नकली ऑडियो को फ़िल्टर करना मुश्किल हो सकता है।”

नकली ऑडियो का उपयोग कहां और कैसे होता है?

फाइनेंशियल टाइम्स की रिपोर्ट के अनुसार चुनावों में डीपफेक ऑडियो का उपयोग एक हथियार के तरह किया जा रहा है। रिपोर्ट के अनुसार, वॉयस-क्लोनिंग टूल ने भारत, इंग्लैंड, नाइजीरिया, सूडान और इथियोपिया जैसे देशों में चुनावों को निशाना बनाया है। इसके लिए अब कई सस्ते, नए और शक्तिशाली एआई टूल सामने आए हैं। इनकी आसान उपलब्धता के कारण एआई ऑडियो अब नकली प्रचारकों के बीच काफी लोकप्रिय हो गए हैं। ऐसे एआई टूल्स में ElevenLabs, Resemble AI, Respeecher और Replica Studios  जैसे स्टार्ट-अप शामिल हैं। कुछ टेक्स्ट-टू-स्पीच एआई उपकरण शरारत या प्रैंक करने, वाणिज्यिक विज्ञापन तैयार करने अथवा मनोरंजक उपहार देने के लिए बनाए गए हैं। लेकिन विशेषज्ञों ने चेतावनी दी है कि इनका राजनीतिक प्रचार तथा किसी उकसावेबाजी के लिए भी उपयोग किया जा सकता है। रिपोर्ट के अनुसार, ऐसे उपकरण मात्र एक डॉलर प्रतिमाह के मामूली खर्च पर मिल सकते हैं। उन्नत उपकरणों का उपयोग 330 डॉलर प्रतिमाह तक के खर्च से किया जा सकता है। किसी राजनीतिक अभियान के भारी बजट के सामने यह बिल्कुल नगण्य राशि है।

अब तक सबसे ज्यादा कारगर फर्जी ऑडियो उन लोगों के बनाए गए हैं, जिन्होंने इंटरनेट पर अधिक शब्द कहे हैं। इनमें राजनेताओं सहित प्रसिद्ध सार्वजनिक हस्तियां शामिल हैं। इसका एक सटीक उदाहरण ब्रिटिश अभिनेता और बुद्धिजीवी स्टीफन फ्राई का मिलता है। उनकी आवाज में हैरी पॉटर के सात उपन्यासों का पाठ ऑनलाइन उपलब्ध है। एक एआई कार्यक्रम ने उनकी इस मौलिक आवाज का उपयोग करके नकली ऑडियो बना दिया। इसे नाजी प्रतिरोध के संदर्भ में बनाया गया। इस नकली ऑडियो में उनकी आवाज में जर्मन और डच भाषा के नाम और शब्द भी शामिल थे। यह सब पूरी तरह से स्टीफन फ्राई के उच्चारण और स्वर-शैली पर आधारित था। जबकि खुद उन्होंने स्वयं ऐसे शब्दों का उच्चारण कभी नहीं किया था। एआई कार्यक्रम ने यह अनुमान भी लगा लिया कि स्टीफन फ्राई उन विदेशी शब्दों को कैसे बोलेंगे। (ऐसे एडवांस्ड स्पीच डीपफेक के खतरे को समझने के लिए नीचे दिए गए वीडियो में 12:30 से 15:30 मिनट तक स्टीफन फ्राई का क्लिप देखें।)

हनी फरीद – कैलिफोर्निया विश्वविद्यालय, बर्कले में कंप्यूटर विज्ञान के प्रोफेसर और मीडिया फोरेंसिक विशेषज्ञ हैं। उन्होंने Scientific American magazine को बताया कि किसी की आवाज की मात्र एक मिनट की रिकॉर्डिंग के आधार पर अब जेनरेटिव एआई टूल के जरिए नकली ऑडियो बन सकता है। ऐसे टूल पर मात्र पांच डॉलर प्रति माह का खर्च होता है। मध्यम स्तर के चुनाव अधिकारियों की आवाज में नकली ऑडियो बनने का खतरा है, क्योंकि उनके द्वारा बेहद कम सार्वजनिक घोषणा होने के कारण असली और नकली को समझना मुश्किल होगा। बेहद मामूली प्रयास करके ऐसे फर्जी ऑडियो बनाए जा सकते हैं। हनी फ़रीद के अनुसार मुख्यतः दो तरीकों से नकली ऑडियो बनाए जाते हैं।

  1. ‘टेक्स्ट-टू-स्पीच‘ तकनीक। इसमें पहले किसी व्यक्ति की वास्तविक आवाज के ऑडियो को अपलोड किया जाता है। फिर उसकी आवाज में जा बात कहनी है, उसे टाइप किया जाता है।
  2. ‘स्पीच-टू-स्पीच‘ तकनीक। इसके लिए घोटालेबाज अपनी ही आवाज़ में कोई बयान रिकॉर्ड करता है। फिर उपकरण का उपयोग उसे किसी अन्य की आवाज में परिवर्तित करता है।

डिजिटल अवतार उद्योग द्वारा एक नया हाइब्रिड नकली मॉडल प्रदान किया गया है।  कुछ एआई स्टार्टअप ने डिजिटल रूप से निर्मित अभिनेता या न्यूज एंकर बनाए हैं, जिनका उपयोग लंबे संदेश ‘बोलने‘ के लिए किया जा सकता है। वास्तविक लोगों से जोड़े गए नकली संदेशों की तुलना में इसके वीडियो क्लिप में इनके होंठ बेहतर ढंग से सिंक होते हैं। ‘द न्यूयॉर्क टाइम्स‘ के अनुसार, सोशल मीडिया विश्लेषण कंपनी Graphika के शोधकर्ताओं ने अवतार द्वारा संचालित समाचार प्रसारण का पता लगाया है। लंदन के ऑक्सफोर्ड सर्कस में एक कपड़े की दुकान के ऊपर स्थित एक एआई कंपनी द्वारा प्रस्तुत ऐसी सेवाओं में कई डिजिटल चरित्र और भाषाओं का विकल्प उपलब्ध है। इनमें नकली एंकर द्वारा न्यूज प्रस्तुत किए जाते हैं। विभिन्न आयुवर्ग और लिंग के 85 पात्र उपलब्ध हैं। इसमें 120 भाषाओं में कोई भी संदेश पढ़वाया जा सकता है।

नकली ऑडियो के खतरों से कैसे निपटें?

एडवांस्ड स्पीच डीपफेक के द्वारा बिल्कुल असली लगने वाले नकली ऑडियो बनाए जा सकते हैं। उसकी सच्चाई को उस व्यक्ति के नजदीकी दोस्त भी नहीं पहचान सकेंगे। ऐसे ऑडियो क्लिप की जांच के लिए विशेषज्ञ और नए उपकरणों की आवश्यकता होती है। अक्सर पत्रकार किसी नेता के बारे में अपने ज्ञान, रिकॉर्डिंग की खराब गुणवत्ता, संदर्भ या सामान्य सामान्य ज्ञान के आधार पर किसी ऑडियो क्लिप में किए गए फर्जीवाड़े को तुरंत पहचान लेते हैं। लेकिन विशेषज्ञों के अनुसार, यह गहराई से जांच की प्रक्रिया का एक मामूली हिस्सा है। ऐसे मामलों की एक त्वरित और साक्ष्य-आधारित जांच होनी चाहिए। इसके आधार पर सच बताने वाली स्टोरी बतानी चाहिए। यानी प्रारंभ और अंत दोनों हिस्से में सच की दो परतों के भीतर पूरी कहानी बताई जाए। इसके साथ ही, वास्तविक ऑडियो को सामने लाना और फर्जीवाड़ा करने वालों का पता लगाना भी जरूरी है।

ऑडियो डीपफेक के विश्लेषण की प्रक्रिया

  • कोई भी संदिग्ध क्लिप मिले, तो उसे तत्काल चिह्नित करें। ऐसा जल्दी करना होगा। संपादकों का सुझाव है कि नागरिकों से संदिग्ध ऑडियो और रोबोकॉल मंगाए जाने चाहिए। इसके लिए एक अलग व्हाट्सएप नंबर जारी करना चाहिए। ऐसा करने पर खुद मतदाताओं से एक प्रभावी प्रारंभिक चेतावनी मिलने की प्रणाली विकसित हो सकती है। ब्राज़ील के चर्चित Comprova Project में चुनावी दुष्प्रचार की जांच के लिए 24 मीडिया संगठनों ने भागीदारी निभाई थी। इसमें मतदाताओं की क्राउडसोर्सिंग शक्ति और दिमागी शक्ति का पूरा फायदा उठाया गया। मीडिया संगठनों ने आपसी प्रतिद्वंद्विता को भूलकर एक ही व्हाट्सएप नंबर प्रकाशित करने और जांच के परिणाम साझा करने की बुद्धिमत्ता दिखाई।
  • कुछ सेवाएं आपके ईमेल पर तत्काल डीपफेक अलर्ट भेजती हैं। जैसे, Reality Defender। विभिन्न नकली ऑडियो की जांच के लिए समन्वित अभियान के मकसद से भी मीडिया संगठनों के बीच ऐसा परस्पर सहयोग आधारित प्रयास किया जा सकता है। पारंपरिक सोशल मीडिया निगरानी और तथ्य जाँच संगठनों के साथ ही राजनीतिक पत्रकारों के चैट समूहों के साथ खुले संचार चैनल विकसित करना भी उपयोगी होगा।
  • वायरल हो रहे फर्जी ऑडियो के लिए न्यूज़रूम में एक प्रणाली की आवश्यकता है, ताकि पता चल सके कि किसे प्राथमिकता देकर उसका सच उजागर करना है। कई सोशल मीडिया प्लेटफार्मों पर वह ऑडियो क्लिप अचानक वायरल हो, तो यह एक प्रारंभिक संकेत है। BuzzSumo एक ऐसा विश्लेषण उपकरण है, जो यह बता सकता है कि उस क्लिप को कितना शेयर किया जा रहा है। पक्षपातपूर्ण मीडिया तथा किसी पार्टी के कार्यकर्ताओं द्वारा उसे फैलाया जा रहा हो, इससे भी उसके खतरनाक होने का अंदाज लगाया जा सकता है।
  • याद रखें कि आवाज की विसंगतियों वाली कोई संदिग्ध क्लिप भी वास्तव में असली हो सकती हैं। विशेषज्ञों ने इस वायर्ड लेख में बताया है कि, “अप्राकृतिक-ध्वनि वाली आवाज़ अत्यधिक दबाव में कोई स्क्रिप्ट पढ़ने का परिणाम हो सकती है।“ यह बंधक बनाए गए किसी व्यक्ति द्वारा दिए गए ‘वास्तविक‘ बयान देने जैसा मामला है। निम्न गुणवत्ता वाले किसी वीडियो में संदिग्ध गड़बड़ी को ‘डीपफ़ेकरी के सबूत के रूप में बनी कलाकृति के बतौर देखा जा सकता है।‘

क्रेग सिल्वरमैन की ‘वेरिफिकेशन हैंडबुक‘ – डीपफेक फर्जीवाड़ा की जांच का एक प्रमुख संसाधन।  छवि: स्क्रीनशॉट

  • पत्रकारों और तथ्य जांचकर्ताओं को किसी एआई फेक ऑडियो का प्रभावी मुकाबला करने के लिए साक्ष्य-आधारित डेटा की आवश्यकता होती है। यदि एक नजर में कोई ऑडियो नकली प्रतीत होता हो, तब भी आपके पास पर्याप्त डेटा होने चाहिए। इसके लिए तथ्य जांच स्रोत, उस मूल भाषा के विशेषज्ञ, डीपफेक रैपिड रिस्पांस टीम और डिटेक्शन टूल की आवश्यकता है। (इस सबंध में नीचे अधिक विस्तार से बताया गया है)। मीडिया टेक्नोलॉजिस्ट शिरीन एनलेन इस बात पर जोर देती हैं कि पत्रकारों को पारंपरिक सत्यापन विधियों – जैसे रिवर्स इमेज सर्च, स्रोत साक्षात्कार और क्रेग सिल्वरमैन की Verification Handbook में बताए गए विभिन्न उपकरणों से शुरुआत करनी चाहिए।
  • न्यूज़रूम यह साबित नहीं कर सकते कि किसी उम्मीदवार ने कभी भी ऐसा फर्जी बयान नहीं दिया है। इसलिए पत्रकारों को उस क्लिप की उत्पत्ति, उसके निर्माण और प्रसार पर ध्यान केंद्रित करना चाहिए। विशेषज्ञों का कहना है कि पत्रकार उसी मुद्दे पर उस उम्मीदवार द्वारा कही गई बातों की सत्यापित क्लिप की पहचान करके उसे उजागर कर सकते हैं। सच बताने वाले इस तथ्य को स्टोरी के प्रारंभ में ही प्रमुखता से बताना चाहिए। यदि संभव हो तो शीर्षक में भी इसका उल्लेख करना चाहिए।
  • सबसे महत्वपूर्ण बात यह है कि मीडिया अपनी साख कायम करे। विशेषज्ञ इस बात पर जोर देते हैं कि एआई ऑडियो डीपफेक का मुकाबला करने में मीडिया पर नागरिकों का भरोसा सबसे महत्वपूर्ण चीज है। मीडिया अपने चुनाव अभियान कवरेज और चुनाव जांच में काफी सटीक और साक्ष्य-आधारित रहे ताकि चुनाव की पूर्व संध्या पर उनकी डीपफेक जांच पर नागरिकों का भरोसा कायम रहे।
  • फर्जीवाड़े के संबंध में नियामक अधिकारियों की टिप्पणी और नीतियों पर पड़ने वाले प्रभाव का पता लगाएं। फर्जी ऑडियो बनाने वालों तथा फर्जी कॉलर आईडी वाले रोबोकॉल का पता लगाने वाली खोजी कहानियों का काफी महत्व है। ऐसी स्टोरीज के कारण नकली ऑडियो स्पैम को प्रतिबंधित करने के लिए सरकारी नियामकों पर दबाव डाला जा सकता है। फरवरी में, अमेरिकी संघीय संचार आयोग ने रोबोकॉल में एआई टूल के उपयोग पर प्रतिबंध लगा दियाचुनावी दुष्प्रचार के खतरे की सीधी प्रतिक्रिया में ऐसा किया गया।

चुनाव की पूर्वसंध्या पर फर्जीवाड़े का ख़तरा

डीपफेक के कारण अब असली खोजी कहानियों पर भी एक खतरा है। यदि किसी पत्रकार ने किसी असली वीडियो या ऑडियो क्लिप के माध्यम से नागरिकों के हक में कोई सच बताया हो, तो उसे भी झुठलाया जा सकता है। कोई राजनेता या अधिकारी आपके उस वैध सबूत को उन्नत एआई डीपफेक बता सकते हैं। इस तरह, वे सच का आसानी से खंडन कर सकते हैं। उसकी सच्चाई बताना आपके लिए और ज्यादा कठिन हो सकता है।

भारत और इथियोपिया जैसे देशों में राजनेताओं के साथ ऐसा पहले ही हो चुका है। अब पत्रकारों पर यह साबित करने की नई जिम्मेदारी है कि एक उचित स्रोत वाली, सत्यापित रिकॉर्डिंग वास्तव में असली है। ‘विटनेस‘ के कार्यकारी निदेशक सैम ग्रेगरी के लिए यह एक गहरी चिंता है। इस समस्या को ‘असत्य के माहौल का लाभ‘ के रूप में जाना जाता है। यानी झूठ के वातावरण के कारण किसी झूठ बोलने वाले को लाभ मिल जाए। यह मामला भारत के तमिलनाडु में डीएमके सरकार के एक मंत्री से जुड़े दो ऑडियो क्लिप का है जिसमें भ्रष्टाचार के गंभीर आरोप हैं। ऑडियो क्लिप सामने आने के बाद उक्त राजनेता ने उन्हें एआई से बनाया गया नकली उत्पादन बताया। लिहाजा, मीडिया के सामने यह चुनौती है कि किसी वास्तविक ऑडियो या वीडियो को भी संबंधित लोग नकली बता दें।

इसका अंतिम समाधान यही है कि मीडिया की गहरी साख कायम हो। नागरिकों को उस पर पूरा विश्वास हो। न्यूज़रूम लगातार यह सुनिश्चित करें कि चुनावों पर उनके सभी समाचार और स्रोत ठोस हों। (ग्रेगरी के टेड टॉक में डीपफेक के खतरे पर चर्चा देखें।)

स्लोवाकिया का मामला दो कारणों से खोजी पत्रकारों के लिए चिंताजनक है। इसमें दो मिनट का फर्जी ऑडियो क्लिप चुनावी धांधली पर केंद्रित था। इसमें एक खोजी पत्रकार मोनिका टोडोवा की नकली आवाज डाली गई थी, जो कथित तौर पर एक विपक्षी नेता के साथ बातचीत कर रही थी। ‘द डायल‘ ने इस पर एक खोजी रिपोर्ट की। इसमें पत्रकार मोनिका टोडोवा ने बताया कि शुरुआत में उन्होंने वायरल क्लिप को फर्जी बताकर खारिज कर दिया। लेकिन उनके कई दोस्तों ने उसे सुना था और उसे असली मान रहे थे। यहां तक कि वे लोग उसे सोशल मीडिया पर साझा भी कर रहे थे। ऐसे में मोनिका टोडोवा ने खुद को बिल्कुल नई वास्तविकता से घिरा पाया।

इससे जुड़ा एक और चिंताजनक पहलू है। स्लोवाकिया के इस ऑडियो डीपफेक के समय में विदेशी राज्य संचालकों की पहचान थी। ‘द डायल‘ की जांच में पाया गया कि यह फर्जी ऑडियो क्लिप स्लोवाकिया में चुनाव से दो दिन पहले जारी किया गया। उस वक्त तक सभी प्रचार अभियानों पर रोक लग गई थी। इस रणनीति का गहरा प्रभाव पड़ा। पत्रकारों को इसका खंडन करने के लिए बहुत कम अवसर मिला। देश का मीडिया दुष्प्रचार को खारिज करने में कानूनी रूप से सीमित था।

यह मामला उस भविष्यवाणी की पुष्टि करता है जो प्रोपब्लिका के क्रेग सिल्वरमैन ने 2022 में जीआईजेएन को दी थी। उन्होंने कहा था कि “चुनाव के 48 घंटे पहले डीपफेक सबसे अधिक संवेदनशील होते हैं, क्योंकि उम्मीदवारों या पत्रकारों के पास जांच करने या खंडन करने के लिए बहुत कम समय होगा।“

इमेज: स्क्रीनशॉट, एनबीसी न्यूज़

अमेरिका में राष्ट्रपति जो बिडेन की नकली आवाज़ वाले एक ऑडियो क्लिप का मामला भी गंभीर है। न्यू हैम्पशायर में प्राथमिक चुनाव से ठीक पहले प्रसारित यह फर्जी रोबोकॉल था। ‘एनबीसी न्यूज‘ ने इस डीपफेक ऑडियो के स्रोत का पता लगा लिया। इसमें एक जादूगर ने प्रतिद्वंद्वी डेमोक्रेटिक राष्ट्रपति अभियान के एक सलाहकार से भुगतान मिलने का दावा किया था। रिपोर्ट के अनुसार, उस व्यक्ति ने स्वीकार किया कि “नकली ऑडियो बनाने में 20 मिनट से भी कम समय लगा। इसकी लागत केवल एक डॉलर थी।“ अपनी भागीदारी पर पछतावा होने के बाद उस जादूगर ने दुष्प्रचार अभियान में अपनी भूमिका का खुलासा किया। उसने एनबीसी न्यूज को बताया, “यह बहुत डरावनी बात है कि ऐसा फर्जीवाड़ा करना इतना आसान है। लोग इस खतरे को समझने के लिए तैयार नहीं हैं।“

उन्नत डीपफेक का पता लगाने के तरीके और उपकरण

यूक्रेन के StopFake.org ने पिछले दिनों एक डीपफेक वीडियो का भंडाफोड़ किया। इसमें एक शीर्ष जनरल को राष्ट्रपति वलोडिमिर ज़ेलेंस्की की निंदा करते हुए दिखाया गया था। Deepware Scanner tool और कंसिस्टेंसी विश्लेषण का उपयोग करके यह जांच की गई। जांच टीम ने पाया कि घोटालेबाज ने एक साल पहले लिए गए यूक्रेनी जनरल के वास्तविक वीडियो पर नकली इमेजरी और ऑडियो को सुपरइम्पोज़ करने के लिए GAN (generative adversarial network) नामक मशीन लर्निंग तकनीक का उपयोग किया था। अन्य विश्लेषकों ने पाया कि इस डीपफेक वीडियो को सबसे पहले एक टेलीग्राम चैनल द्वारा पोस्ट किया गया था। उस टेलीग्राम चैनल ने इसे मात्र मनोरंजन के लिए ‘हास्य सामग्री‘ के बतौर साझा करने का दावा किया था। लेकिन यह एक गंभीर सामग्री के बतौर वायरल हो गया।

StopFake.org की सह-संस्थापक ओल्गा युरकोवा का कहना है कि उन्होंने संदिग्ध मल्टीमीडिया सामग्री की जांच के लिए सामान्य ‘रिवर्स इमेज टूल‘ के साथ ही डिटेक्शन टूल का उपयोग किया। हालांकि उन्होंने यह भी बताया कि “दुर्भाग्य से, यह हमेशा काम नहीं करता है।“

वह बताती हैं, “ऑडियो फेक की जांच को लेकर हमारा अनुभव बहुत कम है। हम अक्सर साधारण सुनने से ही ऐसे नकली ऑडियो की पहचान कर लेते हैं। लेकिन यह ज्यादातर निम्न-गुणवत्ता वाले नकली क्लिप के मामले में काम करता है।“

ध्यान रहे कि डीपफेक का पता लगाना एक नई उभरती हुई तकनीक है। इसके लिए ओपन सोर्स और वाणिज्यिक, दोनों तरह के उपकरणों की क्षमता सीमित होती है। इसलिए पाठकों को इन सीमाओं के बारे में भी सचेत करना जरूरी है।

Witness की शिरीन एनलेन ने कहा कि “हमें अब तक ऐसा कोई उपकरण नहीं मिला है, जो हमारे परीक्षणों में विफल न हो और जो पारदर्शी तथा सुलभ परिणाम प्रदान करता हो।“ फिर भी, ऐसे उपकरण कोई लीड प्रदान करने या सहायक साक्ष्य के रूप में सहायक हो सकते हैं।

संदिग्ध ऑडियो की जांच के कुछ अन्य तरीके

  • संबंधित क्षेत्र या देश के लोगों के जरिए ऑडियो को क्रॉस-चेक करें। ओल्गा युरकोवा ने एक सस्ते ऑडियो फर्जी का हवाला दिया। इसमें वर्ष 2023 में अमेरिकी राष्ट्रपति जो बिडेन की आवाज की घटिया नकल की गई थी। इसमें वह कथित तौर पर रूस के राष्ट्रपति व्लादिमीर पुतिन की अपराजेयता को स्वीकार कर रहे थे। रूस के सरकारी मीडिया और कुछ टेलीग्राम चैनलों ने इसे व्यापक रूप से प्रचारित किया था। StopFake.org ने इस रिकॉर्डिंग को अमेरिकी अंग्रेजी के कई देशी वक्ताओं के साथ साझा किया। उन लोगों ने तुरंत बता दिया कि कुछ शब्द स्पष्ट रूप से नकली थे। खासकर, ‘देशभक्त‘ शब्द में सॉफ्ट ’आई’ ध्वनि का उपयोग, जिसे अमेरिकी लोग लगभग तीन पूर्ण अक्षरों के रूप में उच्चारित करते हैं।
  • टूल के अनुरूप जांच पोर्टल का उपयोग करें। ओल्गा युरकोवा का कहना है कि ElevenLabs’ AI speech classifier एक अच्छा ऑडियो डीपफेक डिटेक्शन टूल है। लेकिन यह केवल इलेवन लैब्स टूल से बनाए गए क्लिप का पता लगा सकता है। ऑडियो की जांच करने के लिए आपको ऑडियो फ़ाइल को साइट पर अपलोड करना होगा। शोधकर्ताओं ने जो बिडेन के ऑडियो डीपफेक की जांच के लिए इलेवनलैब्स के डिटेक्शन सिस्टम का इस्तेमाल किया। बहुत अधिक संभावना पाई गई कि उस कंपनी के एआई टूल का उपयोग करके उसे बनाया गया था। नकली ऑडियो के निर्माता ने बाद में एनबीसी न्यूज को इसकी पुष्टि की। इससे पता चलता है कि डीपफेक स्रोत का पता लगाना काफी सटीक हो सकता है।
  • उद्योग से जुड़े विशेषज्ञ स्रोतों से मदद लें। आप Reality Defender, Loccus.AI, Respeecher, DeepMedia,यूनिवर्सिटी डिजिटल फोरेंसिक लैब और सूचना प्रौद्योगिकी विभागों जैसे फोरेंसिक संगठनों के विशेषज्ञ स्रोतों की मदद ले सकते हैं। अन्य मीडिया संस्थानों की एआई ऑडियो सामग्री से जुड़ी खबरों में जिन विशेषज्ञों को उद्धृत किया गया हो, उनका एक डेटाबेस बनाएं। पता लगाएं कि क्या वे आपके द्वारा जांच की जा रही संदिग्ध क्लिप की फोरेंसिक जांच में मदद करेंगे।
  • ऑडियो में एआई द्वारा हेराफेरी के सामान्य संकेतों को चिह्नित करने के लिए PlayHT Classifier tool का उपयोग करें। ओल्गा युरकोवा के अनुसार, आपको यह जांचना है कि वह ऑडियो ट्रैक किसी एआई की मदद से बनाया गया है, अथवा यह एक मूल रिकॉर्डिंग है। इसके लिए ऑडियो फ़ाइल को अपलोड करना होगा। ‘प्ले एचटी क्लासिफायर टूल‘ एक ‘टेक्स्ट-टू-स्पीच‘ स्टार्टअप है। ओल्गा युरकोवा ने किसी क्लिप में नकली इमेजरी की खोज के लिए पूरी तरह से लागत-मुक्त विकल्प के रूप में AI or Not tool के उपयोग का भी सुझाव दिया। सामन्था सुन्ने के अनुसार, पत्रकारों को sensity.ai जैसे वैकल्पिक टूल के माध्यम से भी जांच करनी चाहिए।
  • भुगतान आधारित डिटेक्टर का उपयोग करें, जो कई भाषाओं के साथ काम करते हैं। AI Voice Detector में किसी ऑडियो का स्वचालित तरीके से सत्यापन करने की सुविधा है। इसके अलावा, यह पृष्ठभूमि संगीत को हटाने के लिए फिल्टर और रिकॉर्ड छोड़े बिना खोज करने की क्षमता जैसी अतिरिक्त सुविधाएं प्रदान करता है। ओल्गा युरकोवा के अनुसार, “यह प्रोग्राम व्यक्तिगत ऑडियो फ़ाइलों को संग्रहित नहीं करता है। इसमें विभिन्न भाषाओं के ऑडियो की जांच करने की सुविधा है।“ वह बताती हैं कि, इसमें अपना खाता बनाने के लिए लगभग बीस डॉलर प्रति माह की सदस्यता राशि देनी पड़ती है। इसमें किसी परीक्षण अवधि की सुविधा नहीं है। ओल्गा युरकोवा ने किसी भी भाषा के सिंथेटिक ध्वनि डिटेक्टर  DuckDuckGoose का भी उपयोग करने का सुझाव दिया। इसमें 93 प्रतिशत सटीक नतीजे आने का दावा किया गया है। इसके अलावा, भुगतान आधारित एक अन्य विकल्प रियल टाइम ऑडियो चेकर ‘ Resemble Detect भी है। इसमें पंजीकरण करना पड़ता है।
  • किसी ऑडियो में झकझोरने वाले या असंभावित शब्दों के उपयोग पर नज़र रखें। अक्टूबर 2023 में इज़राइल की सरकार ने एक ऑडियो रिकॉर्डिंग जारी की थी। इसमें गाजा में अल-अहली अस्पताल में विस्फोट के बाद हमास की रेडियो बातचीत को दिखाया गया था। इसे हमास के दोषी होने का सबूत बताया गया। लेकिन अरब पत्रकारों ने इस ऑडियो की बोली, वाक्यविन्यास और आवाज़ों के उच्चारण पर संदेह जताया । ‘चैनल फोर‘ की एक रिपोर्ट ने भी इसे दो अलग-अलग रिकॉर्डिंग से बनाए गए नकली संवाद के रूप में फर्जी बता दिया ।

हमास के लोगों के बीच एक कथित बातचीत के ऑडियो का ‘चैनल फोर‘ ने विश्लेषण किया। इस ऑडियो में गाजा अस्पताल पर बमबारी के लिए इस्लामिक जिहाद को जिम्मेदार बताया गया। इसे इज़राइल रक्षा बलों ने जारी किया था। इसमें प्रसंग, बोली और स्वर संबंधी कई विसंगतियां पाई गईं। इसके कारण इस रिकॉर्डिंग को फर्जी करार दिया गया। इमेज: स्क्रीनशॉट

  • मूल साइटों के मेटाडेटा और डोमेन इतिहास की जांच करें। ओल्गा युरकोवा कहती हैं कि मूल सोशल मीडिया अकाउंट या पोस्टर में किए गए फर्जीवाड़े का पता लगाने के लिए ‘हू इज‘ (stitched together from two separate recordings) जैसे ऑनलाइन टूल का उपयोग करें। ‘रिस्क आईक्यू‘ (RiskIQ) और ‘क्राउड टेंगल‘ (Crowdtangle) जैसे उपकरण भी क्लिप की उत्पत्ति का पता लगाने में मदद कर सकते हैं। हालांकि ऐसा फर्जीवाड़ा करने वालों तथा उनके आर्थिक प्रायोजकों का पता लगाना जटिल काम हो सकता है। इसके लिए कानूनी एजेंसियों या साइबर सुरक्षा विशेषज्ञों की सहायता लेनी पड़ सकती है।
  • फ्रेम-बाइ-फ्रेम विश्लेषण करते हुए वीडियो में ‘अप्रिय‘ लगने वाली चीज़ों को देखें। ओल्गा युरकोवा का कहना है कि हरेक फ्रेम को देखने पर कई दृश्य विसंगतियां देखने को मिल सकती हैं। इस बात पर ध्यान दें कि किसी व्यक्ति द्वारा बोले गए शब्दों के दौरान चेहरे की अभिव्यक्ति उसकी अपेक्षित भावनाओं से मेल खाती है, अथवा नहीं। मौखिक और गैर-मौखिक संकेतों के बीच अगर मेल न हो, तो इसका मतलब यह हो सकता है कि शब्दों और चेहरे के भावों की उत्पत्ति अलग-अलग है।
  • कथात्मक शब्दों, संलग्न पाठ और कैप्शन का विश्लेषण करें। स्पष्ट झूठ, अपवित्रता और हिंसा के लिए उकसाने वाली शब्दावली का विश्लेषण करें। कैप्शन और संलग्न पाठ में छिपे राजनीतिक नारों या चुनावी प्रचार की भी जांच करनी चाहिए। इससे फर्जीवाड़े या हेराफेरी का पता चल सकता है।

किसी संदिग्ध चुनाव सामग्री की तत्काल जांच आवश्यक हो, तो तकनीकी मानवाधिकार संगठनों से सहयोग ले सकते हैं। उच्च-प्रभाव वाले क्लिप के गहन विश्लेषण के लिए ऐसी सुविधा मिल सकती है। कम संसाधन वाले मीडिया संस्थान इस फॉर्म को भरकर ‘डीपफेक रैपिड रिस्पांस प्रोजेक्ट‘ से मदद मांग सकते हैं। ध्यान रखें कि इस प्रोजेक्ट की क्षमता सीमित है।

Witness की शिरीन एनलेन कहती हैं- “हम आम तौर पर स्थानीय पत्रकारों और फैक्ट चेकर्स के साथ परस्पर सहयोग के आधार पर जांच करते हैं, जिनकी डिटेक्शन टूल्स तक सीमित पहुंच होती है। इंडोनेशिया, पाकिस्तान और भारत में चुनावों के दौरान ऐसी जांच के लिए मीडिया संगठनों के साथ हमारे शोधकर्ताओं की टीम काम कर रही है। न्यूयॉर्क टाइम्स या गार्जियन जैसे बड़े संस्थानों के पास व्यापक जांच संसाधन हैं, लेकिन उनके साथ काम करने में हमारी कम रूचि है। हमारे पास 15 टीमें और लगभग 40 विशेषज्ञ हैं। सबकी अलग-अलग विशेषज्ञता है। कोई वीडियो या इमेज के विशेयाज्ञ हैं, तो कोई ऑडियो अथवा स्थानीय संदर्भ के जानकार हैं। हम यथासंभव अधिक से अधिक विश्लेषण जानकारी देने का प्रयास करते हैं। पत्रकार उस डेटा का अपनी आवश्यकता के अनुसार कोई भी उपयोग कर सकते हैं।

Witness के शोधकर्ताओं के बीच डीपफेक से निपटने का मंत्र है- “तैयार रहें, घबराएं नहीं।“

इस चुनौती पर अपने ब्लॉग पोस्ट  में, सैम ग्रेगरी (कार्यकारी निदेशक, विटनेस) ने लिखा- “फर्जी सामग्री की पहचान करने वाले उपकरणों का उपयोग करने में मीडिया की फोरेंसिक क्षमता और विशेषज्ञता को बढ़ाने की आवश्यकता है। दुनिया भर के पत्रकारों एवं नागरिकों को इसकी जानकारी होनी चाहिए, जो सच की रक्षा करने और झूठ को चुनौती देने में सबसे आगे हैं।“


रोवन फिलिप  जीआईजेएन के वरिष्ठ संवाददाता हैं। पहले उन्होंने दक्षिण अफ्रीका के संडे टाइम्स (Sunday Times) के मुख्य संवाददाता के बतौर काम किया। उन्होंने एक विदेशी संवाददाता के रूप में दो दर्जन से अधिक देशों से समाचार, राजनीति, भ्रष्टाचार और संघर्ष पर रिपोर्टिंग की है।

क्रिएटिव कॉमन्स लाइसेंस के तहत हमारे लेखों को निःशुल्क, ऑनलाइन या प्रिंट माध्यम में पुनः प्रकाशित किया जा सकता है।

आलेख पुनर्प्रकाशित करें


Material from GIJN’s website is generally available for republication under a Creative Commons Attribution-NonCommercial 4.0 International license. Images usually are published under a different license, so we advise you to use alternatives or contact us regarding permission. Here are our full terms for republication. You must credit the author, link to the original story, and name GIJN as the first publisher. For any queries or to send us a courtesy republication note, write to hello@gijn.org.

अगला पढ़ें

समाचार और विश्लेषण

जब सरकारें प्रेस के खिलाफ हों तब पत्रकार क्या करें: एक संपादक के सुझाव

जिन देशों में प्रेस की आज़ादी पर खतरा बढ़ रहा है, वहां के पत्रकारों के साथ काम करने में भी मदद मिल सकती है। पत्रकारों को स्थानीय या अंतर्राष्ट्रीय मीडिया संगठनों के साथ गठबंधन बनाकर काम करने की सलाह देते हुए उन्होंने कहा- “आप जिन भौगोलिक सीमाओं तथा अन्य चुनौतियों का सामना कर रहे हों, उन्हें दरकिनार करने का प्रयास करें।“

Nalbari,,Assam,,India.,18,April,,2019.,An,Indian,Voter,Casts

डेटा पत्रकारिता समाचार और विश्लेषण

भारत में खोजी पत्रकारिता : चुनावी वर्ष में छोटे स्वतंत्र मीडिया संगठनों का बड़ा प्रभाव

भारत में खोजी पत्रकारिता लगभग असंभव होती जा रही है। सरकारी और गैर-सरकारी दोनों प्रकार की ताकतें प्रेस की स्वतंत्रता के प्रति असहिष्णु हो रही हैं। उल्लेखनीय है कि विश्व के 180 देशों के प्रेस स्वतंत्रता सूचकांक में भारत वर्ष 2022 में 150वें स्थान पर था। लेकिन वर्ष 2023 में इससे भी नीचे गिरकर 161वें स्थान पर आ गया।

post office boxes, shell companies

शेल कंपनियों के गुप्त मालिकों का पता कैसे लगाएं?

सहयोगियों ने मध्य पूर्व के एक राजा की विदेशी संपत्तियों की खोज की थी। पता चला कि यूके और यूएस में उस राजा के 14 आलीशान भवन थे। ऐसा गुप्त रूप से टैक्स-हेवन में फ्रंट कंपनियों के नेटवर्क के माध्यम से किया गया था। इस बात की नाटकीय पुष्टि तब हुई, जब एजेंटों द्वारा पंजीकरण दस्तावेजों में गुप्त ग्राहक के घर का पता ‘शाही महल‘ के रूप में दर्ज कराने की जानकारी मिली

ऐप्स की ‘प्राइवेसी पॉलिसी’ को कैसे समझें?

आम तौर पर अधिकांश प्राइवेसी पॉलिसी में एक पूर्व-अनुमानित संरचना का पालन किया जाता है। इसलिए आप उनकी तह तक जाने की कला सीख सकते हैं। उसके मुख्य हिस्सों का पता लगा सकते हैं। लंबा दस्तावेज होने के बावजूद केवल महत्वपूर्ण जानकारी को निकालने के लिए झपट्टा मार सकते हैं। आप कुछ सूचनाओं के संग्रह के आधार पर उससे बाहर निकलने या विकल्प चुनने के अवसर का लाभ उठा सकते हैं। अधिक गहराई तक जाने और अधिक व्यक्तिगत प्रकटीकरण से जुड़े बिंदुओं को भी बेहद कम समय में आसानी से समझ सकते हैं।