প্রবেশগম্যতা সেটিংস

Investigating AI Audio Deepfakes
Investigating AI Audio Deepfakes

Image: Shutterstock

লেখাপত্র

রিসোর্স

» টিপশীট

বিষয়

২০২৪ সালের নির্বাচন ঘিরে হুমকি এআই অডিও ডিপফেক সনাক্ত ও অনুসন্ধান করবেন কীভাবে

আর্টিকেলটি পড়ুন এই ভাষায়:

২০২৩ সালের অক্টোবরে স্লোভাকিয়াতে নির্বাচনের সময় কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তৈরি বিরোধী দলীয় এক প্রার্থীর কণ্ঠস্বরের নকল একটি অডিও (এআই ডিপফেক অডিও) ছড়িয়ে পড়লে জনমত রাশিয়াপন্থী প্রার্থীর পক্ষে চলে যায়। আরেকটি ভুয়া এআই ডিপফেক অডিও জুড়ে দেওয়া হয় পাকিস্তানের এক প্রার্থীর মূল ভিডিও ক্লিপের সঙ্গে, যেখানে ভোটারদের উদ্দেশ্যে ২০২৪ সালের ফেব্রুয়ারির সাধারণ নির্বাচন বয়কটের আহ্বান জানানো হয়। জানুয়ারিতে বাংলাদেশে নির্বাচনের আগে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তৈরি বিরোধী দলের প্রার্থীদের সস্তা ভিডিও ছড়িয়ে ভোটারদের বিভ্রান্ত করার চেষ্টা করা হয়। এদিকে মার্কিন যুক্তরাষ্ট্রের প্রেসিডেন্ট জো বাইডেনের কণ্ঠস্বর ব্যবহার করে তৈরি অডিও ক্লিপে দেশটির গুরুত্বপূর্ণ একটি রাজ্যের ভোটারদের প্রাথমিক নির্বাচনে ভোট না দেওয়ার জন্য আহ্বান জানানো হয়েছে।

২০২৪ সালকে ঐতিহাসিক নির্বাচনের বছরের পাশাপাশি কৃত্রিম বুদ্ধিমত্তাচালিত ডিপফেকের বছর হিসেবেও আখ্যায়িত করছেন বিশেষজ্ঞরা, যেগুলো ঝুঁকির মুখে থাকা গণতন্ত্রগুলোর জন্য বিপর্যয়কর পরিণতি বয়ে আনতে পারে। সাম্প্রতিক গবেষণায় দেখা যায়, সাধারণভাবে প্রায় অর্ধেক মানুষই বাস্তব চিত্র এবং এআই ব্যবহার করে তৈরি করা ছবির মধ্যের পার্থক্য ধরতে পারেন না। তাছাড়া ভোটাররাও ভুয়া কণ্ঠস্বরগুলো সনাক্তে সক্ষম হন না— এবং এই প্রযুক্তি তারপর থেকে আরও উন্নত হয়ে উঠছে।

সিন্থেটিক মিডিয়া ব্যবহার করে ছবির সূক্ষ্ম পরিবর্তন থেকে শুরু করে ডিপফেকে ডিজিটাল অ্যাভাটার দিয়ে ডিজিটাল রেকর্ডিংয়ের মাধ্যমে ভয়েস ক্লোনিং এবং অত্যাধুনিক “ফেস-সোয়াপ” করা হয়, যেখানে ব্যবহার করা হয় কাস্টমাইজড বিভিন্ন টুল। (ইন্টারনেটে ডিপফেক ভিডিওর সিংহভাগই নারী বিদ্বেষ আর ব্যক্তিগত প্রতিহিংসা চালিত হয়ে তৈরি করতে দেখা যায়: নকল যৌন চিত্রের মাধ্যমে নারীদের লাঞ্ছিত করতে এ টুলগুলো ব্যবহার করা হয়— যদিও কৌশলটি ক্রমবর্ধমানভাবে নারী সাংবাদিকদের আক্রমণ করার জন্যও ব্যবহৃত হচ্ছে।)

 নির্বাচন ঘিরে ভুয়া অডিও কেন বড় ধরনের হুমকি তৈরি করতে পারে

মিডিয়া ম্যানিপুলেশন নিয়ে কাজ করেন এমন অনুসন্ধানকারীরা জিআইজেএনকে বলেন, কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তৈরি ভুয়া এআই জেনারেটেড অডিও সিমুলেশন— যেখানে মূল কণ্ঠস্বরকে মেশিন লার্নিং টুল দিয়ে ভুয়া বার্তা ছড়ানোর জন্য ক্লোন করা হয়— বানোয়াট ভিডিওর বিপরীতে ২০২৪ ও ২০২৫ সালের নির্বাচনে আরও বড় হুমকি হিসেবে আবির্ভূত হতে পারে। এর অন্যতম প্রধান কারণ হচ্ছে, তথাকথিত চিপফেকগুলোর মতো, অডিও ডিপফেক বানানোটা সহজ ও সাশ্রয়ী। (চিপফেক এরইমধ্যেই নির্বাচনী বিভ্রান্তিতে ব্যাপকভাবে ব্যবহার করা হয়েছে। দেখা যায়, মূল ঘটনাটি যে জায়গায় ঘটেছে কথিত ভিডিওটি অন্য জায়গার। আর তাতে ছোট ছোট অডিও ক্লিপগুলো খুব বাজে ও অশোভনভাবে জুড়ে দেওয়া হয়েছে, বা ক্যাপশনের লেখাগুলোও উদ্দেশ্যমূলকভাবে সম্পাদনা করা হয়েছে।) এটি প্রতারকদের আরও যে সুবিধা দেয়, তা হলো: কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি নকল কণ্ঠস্বর রোবোকল ব্যবহার করে (বিশেষ করে) বয়স্ক ও সক্রিয় ভোটারদের সহজে লক্ষ্যবস্তু করা সম্ভব হয়। এবং রোবোকলের উৎস খুঁজে বের করাটা অনুসন্ধানী সাংবাদিকদের জন্য এখনো অন্ধকার জায়গা হিসেবে থেকে গেছে।

“এআই অডিও ফেক বড় ধরনের হুমকি সৃষ্টি করতে পারে,” বলে জোর দেন সাংবাদিকতার প্রশিক্ষক ও ইউক্রেনের স্বাধীন ফ্যাক্টচেক সংস্থা স্টপফেকডটওআরজির সহপ্রতিষ্ঠাতা ওলগা ইয়ারকোভা। “এগুলো ডিপফেক ভিডিওর তুলনায় তৈরি করাটা সহজ ও সাশ্রয়ী, যা খালি চোখে সনাক্ত করাটাও কঠিন, কেননা সনাক্তের জন্য খুব কম প্রাসঙ্গিক সূত্র আপনি এতে খুঁজে পাবেন। এছাড়াও, এগুলো বড় পরিসরে ছড়িয়ে পড়ার আশঙ্কাও বেশি থাকে, যেমন হোয়াটসঅ্যাপ চ্যাটের মাধ্যমে।”

তিনি আরো যোগ করেন: “এগুলো বিশ্লেষণ করার কাজটিও জটিল। ভয়েস জেনারেশন টুল ভিডিও জেনারেশন টুলের চেয়ে বেশি উন্নত। এমনকি নমুনা কণ্ঠস্বর এবং সংকেতের ফ্রিকোয়েন্সি পরীক্ষা করার জন্য ব্যবহৃত বর্ণালী বিশ্লেষণ পদ্ধতির ক্ষেত্রেও এটি সময়সাপেক্ষ। তাছাড়া সব ফলাফলটি যে সঠিক হবে এমন কোনো নিশ্চয়তাও নেই। এছাড়াও, ডিপফেক প্রযুক্তির আশ্রয় না নিয়েও ভুয়া অডিও তৈরির অনেক সুযোগ ও সহজলভ্য উপায় রয়েছে।”

ডেটা জার্নালিজম প্রশিক্ষক সামান্থা সুনে বলেন, নির্বাচনের সময় নিউজরুমগুলোর ধারাবাহিকভাবে সতর্ক থাকা প্রয়োজন— বিশেষ করে এখনো গবেষণা বা বিশ্লেষণ করা হয়নি এমন ধরনের এআই অডিও ফেকের আকস্মিক হুমকিগুলো নিয়ে, কেননা সনাক্তকরণ ও পর্যবেক্ষণ টুলগুলোর মতো ডিপফেক প্রযুক্তিও দ্রুত বদলে যাচ্ছে।

ফ্যাক্ট চেক সংস্থা এবং গণতন্ত্রপন্থী বেশ কিছু এনজিও বর্তমানে নিউজরুম ও নাগরিক গোষ্ঠীকে ভাইরাল ও সন্দেহজনক নির্বাচনী বিষয়বস্তু বিশ্লেষণে সহায়তা করছে। যেমন উইটনেস, মানবাধিকার ক্ষমতায়নের পক্ষে কাজ করা অলাভজনক এ প্রতিষ্ঠানটি গত বছরে একটি পাইলট ডিপফেক র‍্যাপিড রেসপন্স প্রকল্প পরিচালনা করে, প্রায় ৪০টি গবেষণা এবং বিশেষজ্ঞদের নেটওয়ার্ক ব্যবহার করে কয়েক ডজন সন্দেহজনক ক্লিপ বিশ্লেষণ করে। জিআইজেএনের সঙ্গে সাক্ষাৎকারে, র‌্যাপিড রেসপন্স প্রজেক্টের ম্যানেজার শিরিন অ্যানলেন বলেন, এআই অডিও ফেক তৈরি করা সবচেয়ে সহজ আর সনাক্ত করাটা সবচেয়ে কঠিন— যা নির্বাচনী অনিষ্ট সৃষ্টির লক্ষ্যে তৈরি বলে মনে হচ্ছে।

“আমরা দেখতে পেয়েছি যে, ডিপফেক ভিডিও চিহ্নিত করতে আমরা যতটা প্রস্তুত, অডিওর ক্ষেত্রে ততটা নই— বর্তমানে আমরা এ পার্থক্যটা দেখতে পাচ্ছি,” অ্যানলেন বলেন। ২০২৩ সালে এআই অডিও ফেকের উচ্চ হার দেখে গবেষকেরা “বিষ্ময়” প্রকাশ করেছেন বলে যোগ করেন তিনি। নির্বাচন বা মানবাধিকারের সঙ্গে সংশ্লিষ্ট ছয়টি অতি-গুরুত্বপূর্ণ অডিওর মধ্যে চারটিই ভুয়া বলে চিহ্নিত করে দলটি।

“নির্বাচন আর বিভিন্ন সংকটজনক পরিস্থিতিতে অডিওর ব্যবহার বেশি হয়েছে বলে ধারণা করা হচ্ছে— বিভিন্ন প্ল্যাটফর্ম বা রোবোকলের মাধ্যমে এটি তৈরি ও বিতরণ করা সহজ,” বলেন অ্যানলেন। “এগুলো খুব ব্যক্তিগত— বেশিরভাগ ক্ষেত্রে বিকৃতিগুলো সনাক্তের জন্য আপনাকে ওই ব্যক্তিকে চিনতে হবে, তিনি কীভাবে কথা বলেন তা জানতে হবে। একের অধিক অডিও, ব্যাকগ্রাউন্ড নয়েজ, সঙ্গীত, অবাঞ্ছিত কথোপকথন—  এগুলো সনাক্তকরণ কাজকে আরও জটিল করে তোলে, বিপরীতে ভিডিওতে মুখাবয়বের বিভিন্ন ত্রুটিসহ বিকৃতিগুলো আপনি দেখতে পান।”

Video deepfake collage of different women's faces

ভিডিও ডিপফেকের ক্ষেত্রে এখনো অনেক ত্রুটি এবং দৃশ্যমান ভুলগুলো চিহ্নিত করা নিয়ে জটিলতা রয়ে গেছে,  তবে অডিও ডিপফেক সনাক্ত করা প্রায়ই অনেক বেশি কঠিন। ছবি: শাটারস্টক

তবে অ্যানলেন সতর্ক করে দিয়ে বলেন যে, “জেনারেটিভ কৌশলগুলোর তুলনায় ভিডিও সনাক্তকরণ পিছিয়ে রয়েছে,” এবং নতুন টেক্স-টু-ভিডিও ওপেনএআই টুল সোরা প্রায় বাস্তবের মতো করে উপস্থাপনে সক্ষম। তিনি আরো যোগ করেন যে বয়স্ক ভোটারদের মধ্যে এ বিষয়ক জ্ঞানের অভাব অডিও জাল এবং কৃত্রিম বুদ্ধিমত্তাচালিত রোবোকলের হুমকিগুলোকে বাড়িয়ে তোলে — “এক্স (টুইটার) বা টিকটকের ভুয়া অডিও ফিল্টার করার সক্ষমতা কম— বিষয়টির সঙ্গে মানুষ খুব একটা অভ্যস্তও নয়। ”

কোথায় — এবং কীভাবে — স্পিচ ডিপফেক ব্যবহার করা হয়

ফিন্যান্সিয়াল টাইমসের বরাতে জানা যায়, ভয়েস-ক্লোনিং টুলগুলো ভারত, যুক্তরাজ্য, নাইজেরিয়া, সুদান এবং ইথিওপিয়ার মতো দেশগুলোর নির্বাচনকে লক্ষ্যবস্তু করেছে। এফটি অনুসন্ধানে অভিযোগ করা হয়েছে যে, “ইলেভেনল্যাবস, রিসেম্বল এআই, রেসপিচার এবং রেপ্লিকা স্টুডিওর মতো স্টার্ট-আপের শক্তিশালী তবে সস্তা এআই টুলের সহজলভ্যতার কারণে এআই অডিও ফেকগুলো হঠাৎ করেই প্রচারণাকারীদের মধ্যে জনপ্রিয় হয়ে উঠেছে। উল্লেখ্য, বেশ কিছু টেক্সট-টু-স্পিচ এআই টুল প্র্যাঙ্ক, বাণিজ্যিক বিজ্ঞাপন বা এমনকি কৌতুকপূর্ণ উপহার তৈরির জন্য ডিজাইন করা হয়েছে। তবে বিশেষজ্ঞরা সতর্ক করে দিয়ে বলেন যে, রাজনৈতিক প্রচার বা এমনকি উসকানি দেওয়ার জন্যও এগুলো  ব্যবহার করা যেতে পারে। প্রতিবেদনে দেখানো হয়েছে মৌলিক টুলগুলো প্রতি মাসে ১ ডলারেরও কম মূল্যে ব্যবহার করা যায় এবং প্রতি মাসে ৩৩০ ডলারের বিনিময়ে উন্নত টুলগুলো ব্যবহার করা যেতে পারে— যা রাজনৈতিক প্রচারণার বাজেটের খুবই সামান্য একটি অংশ।

এখন পর্যন্ত সবচেয়ে বিশ্বাসযোগ্য অডিও ফেক তৈরিতে এমন কণ্ঠ ব্যবহার করা হয়েছে যেগুলো ইন্টারনেটে সর্বাধিক ব্যবহৃত। বেশিরভাগ ক্ষেত্রে রাজনীতিবিদসহ সুপরিচিত ব্যক্তিত্বদের নিয়ে তৈরি সবচেয়ে দুর্দান্ত উদাহরণগুলোর মধ্যে রয়েছে ব্রিটিশ অভিনেতা ও বুদ্ধিজীবী স্টিফেন ফ্রাইকে লক্ষ্যবস্তু করা, যেখানে এআই অডিও ফেকের সাহায্যে হ্যারি পটারের সাতটি উপন্যাসের অনলাইন বর্ণনাকে ব্যবহার করে নাৎসি বিরোধী বর্ণনা তৈরি করা হয়। এরমধ্যে অন্তর্ভুক্ত ছিল জার্মান ও ডাচ নাম এবং শব্দ। যেগুলো ছিল ফ্রাইয়ের উচ্চারণের মতো পুরোপুরি সংশোধিত কণ্ঠস্বর—অভিনেতা নিজে কখনও এ কথাগুলো বলেননি। ফ্রাই কীভাবে এই বিদেশী শব্দগুলো উচ্চরণ করবেন, সে সম্পর্কেও আগাম ধারণা দিয়েছে টুলটি। ( ডিপফেক কীভাবে কাজ করে সে সম্পর্কে ধারণা পেতে নীচের ভিডিওর ১২.৩০ মিনিট থেকে ১৫.৩০ মিনিটের অংশটি দেখুন, যেখানে এআই প্রোগ্রামের সাহায্যে কীভাবে ফ্রাইয়ের কণ্ঠস্বর নকল করা হয়েছে তা তুলে ধরা হয়েছে৷)

যাইহোক, ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের কম্পিউটার সায়েন্সের অধ্যাপক ও মিডিয়া ফরেনসিক বিশেষজ্ঞ, হ্যানি ফরিদ সায়েন্টিফিক আমেরিকান ম্যাগাজিনকে বলেন, জেনারেটিভ এআই টুলের মাধ্যমে একটি নতুন, বিশ্বাসযোগ্য অডিও ডিপফেক তৈরি করার জন্য যে কোনো ব্যক্তির কণ্ঠস্বরের এক মিনিটের রেকর্ডিং যথেষ্ট। যার জন্য মাসে খরচ মাত্র ৫ ডলার।

নির্বাচন ঘিরে কাজ করছেন এমন কর্মকর্তাদের নকল করার ঝুঁকি সামনে এসেছে। বিশেষ করে আমলাদের জন্য, যাদের বক্তব্যগুলো সাধারণত সংক্ষিপ্ত ঘোষণার মধ্যে সীমাবদ্ধ থাকে। ফরিদ অডিওফেক তৈরির দুটি প্রাথমিক উপায় ব্যাখ্যা করেছেন: হয় টেক্সট-টু-স্পিচ — যেখানে একজন স্ক্যামার আসল অডিও আপলোড করে এবং তারপরে তারা ভয়েস” কী বলবে” তা টাইপ করে — অথবা স্পিচ-টু-স্পিচ, যেখানে স্ক্যামার তাদের নিজস্ব কণ্ঠে একটি বিবৃতি রেকর্ড করে, এবং তারপর টুলটি তা অন্যের কণ্ঠস্বরে রূপান্তর করে। তবে সুপরিচিত নন, এমন ব্যক্তিদের বিশ্বাসযোগ্য ভুয়া ক্লিপ তৈরির প্রচেষ্টাকে তিনি “নগন্য” বলে বর্ণনা করেছেন।

ডিজিটাল অ্যাভাটার শিল্প এক ধরনের নতুন হাইব্রিড নকল মডেল সরবরাহ করতে শুরু করেছে। যেখানে এআই স্টার্টআপগুলো তাদের তৈরি বিভিন্ন ডিজিটাল চরিত্রের মধ্য থেকে ব্যবহারকারীকে বাছাইয়ের সুযোগ করে দেয়। ডিজিটাল এই অ্যাভাটারগুলো দীর্ঘ বার্তা পাঠ করতে সক্ষম। তাছাড়া এগুলো বাস্তব চরিত্রের মুখ থেকে উচ্চারিত নকল বার্তা পাঠের তুলনায় আরো ভালোভাবে ঠোঁট মিলিয়ে দীর্ঘ বার্তা “পাঠ” করতে পারে। দ্য নিউ ইয়র্ক টাইমস অনুসারে সোশ্যাল মিডিয়া অ্যানালাইসিস কোম্পানি গ্রাফিকার গবেষকেরা লন্ডনের অক্সফোর্ড সার্কাসের কাপড়ের দোকানের উপরে অবস্থিত একটি এআই কোম্পানির অ্যাভাটার নির্ভর সংবাদ সম্প্রচার পরিষেবা নিয়ে বিশ্লেষণ করেছেন। যেখানে ব্যবহারকারীদের কয়েক ধরনের ডিজিটাল চরিত্র ও ভাষা বেছে নেওয়ার সুযোগ রয়েছে।

ভুয়া অডিও হুমকি নিয়ে কাজ করার পরামর্শ

বিশেষজ্ঞদের বিশ্লেষণ ও নতুন শনাক্তকরণ টুলগুলো উন্নত স্পিচ ডিপফেকের জন্য প্রযোজ্য, যেখানে বক্তার খুব কাছের বন্ধুরাও কণ্ঠস্বরের পার্থক্য খুঁজে বের করতে সক্ষম হন না। সাংবাদিকরা প্রায়ই প্রার্থী সম্পর্কে তাদের ধারণা, রেকর্ডিংয়ের নিম্ন মান, অডিওর বিষয়বস্তু কিংবা সাধারণ জ্ঞানের ভিত্তিতে বিভিন্ন অডিও ক্লিপের সুস্পষ্ট হেরফেরগুলো বুঝতে পারেন। তবে বিশেষজ্ঞরা সতর্ক করেছেন যে নিজ বিচক্ষণতার ওপর নির্ভর করে সন্দেহ করা এবং তা সনাক্ত করা সামগ্রিক প্রক্রিয়ার একটি ক্ষুদ্র অংশ। একটি দ্রুত, প্রমাণভিত্তিক প্রতিক্রিয়া এবং গল্পের মূল অডিওর ওপর আলোকপাত করে “ট্রুথ  স্যান্ডউইচ” পদ্ধতির ব্যবহার এবং প্রতারণার উৎস খুঁজে বের করাও সমান গুরুত্বপূর্ণ।

সম্ভাব্য অডিও ডিপফেক বিশ্লেষণের জন্য এখানে ধাপে ধাপে কয়েকটি পদ্ধতি উল্লেখ করা হয়েছে।

  •  প্রথমত, আপনাকে সন্দেহজনক ক্লিপগুলো চিহ্নিত করতে হবে। তবে কাজটি করতে হবে খুব দ্রুত। সম্পাদকেরা হোয়াটসঅ্যাপ নাম্বার ব্যবহার করে সন্দেহজনক অডিও এবং রোবোকল সম্পর্কে মানুষকে সচেতন করার কথা বলেছেন। এর মাধ্যমে ভোটাররা প্রাথমিকভাবে সতর্ক বার্তা পাবে। যেমন ব্রাজিলের কমপ্রোভা প্রকল্প— যারা নির্বাচনী বিভ্রান্তি প্রচারের বিপরীতে অনুসন্ধান পরিচালনা করে। তাদের সঙ্গে যুক্ত রয়েছে ২৪টি মিডিয়া সংস্থা, যারা দেখিয়েছে প্রতিদ্বন্দ্বী নিউজরুমগুলো কীভাবে একই হোয়াটসঅ্যাপ নম্বর প্রকাশ করে ফলাফলগুলো শেয়ার করার পাশাপাশি ক্রাউডসোর্সিংয়ের সক্ষমতা ও ভোটারদের বিচক্ষণতাকে কাজে লাগাতে পারে। কিছু পরিষেবা আছে, যেগুলো আপনার ইমেইলে তাৎক্ষণিক ডিপফেক বিষয়ক সতর্কতা প্রদান করে, যেমন রিয়ালিটি ডিফেন্ডার। তবে সহযোগিতার মাধ্যমে বিভিন্ন অডিও ডিপফেকের বিরুদ্ধে সমন্বিত প্রচারাভিযান চালানো যায়, যেমন প্রথাগত সোশ্যাল মিডিয়া মনিটরিং, অপতথ্য যাচাইকারী সংস্থা এবং রাজনৈতিক ক্ষেত্র নিয়ে কাজ করে এমন সাংবাদিকের চ্যাট গ্রুপগুলোও তথ্য দিয়ে সহযোগিতা করতে পারে।
  • ভাইরাল হওয়া জাল অডিওর বিপরীতে নিউজরুমগুলোর দ্বিতীয় ধাপের প্রারম্ভিক সতর্ক ব্যবস্থা গ্রহণ করা প্রয়োজন, যেমন কোন বিষয়টিকে অগ্রাধিকার দিতে হবে, দ্রুত আসল সত্য উদঘাটন ও চিহ্নিত করতে হবে। একাধিক সোশ্যাল মিডিয়া প্ল্যাটফর্ম জুড়ে হঠাৎ একটি অডিও ক্লিপ ছড়িয়ে পড়ার ঘটনা হতে পারে প্রাথমিত ইঙ্গিত। এক্ষেত্রে বাজসুমোর মতো বিশ্লেষণধর্মী টুলগুলো ক্লিপটি কতটা ছড়িয়েছে সে হার সম্পর্কে আপনাকে ধারণা দিতে পারে। পার্টিজান মিডিয়ার অ্যাক্টিভিস্টরা এটি বেশি ছড়িয়েছে কিনা– সেটি হতে পারে একটি ইঙ্গিত বা ক্ষতিকর ভাইরালিটির কারণ।
  • মনে রাখবেন ত্রুটি ও কণ্ঠস্বরের অসঙ্গতিযুক্ত সন্দেহজনক ক্লিপগুলোও সত্য হতে পারে। বিশেষজ্ঞরা উইয়ার্ড-এর এই লেখায় যেমনটা বলেছেন, “ভীষণ চাপের মধ্যে স্ক্রিপ্ট পড়ার ফলে কণ্ঠস্বর অস্বাভাবিক শোনা যেতে পারে”— সাধারণত জিম্মি অবস্থায় থাকা ব্যক্তিদের “আসল” বিবৃতিগুলো এমন হয়। অন্যদিকে নিম্ন-মানের ভিডিওতে সন্দেহ হওয়া ত্রুটিগুলো “প্রযুক্তিগত সীমাবদ্ধতা ও ভিডিও সংকোচনের কারণে ভুয়া হিসেবে গণ্য হতে পারে।”
Verification Handbook, Craig Silverman

ক্রেগ সিলভারম্যানের ভেরিফিকেশন হ্যান্ডবুক ডিপফেক তৈরির নেপথ্যের লোকেদের চিহ্নিত করার গুরুত্বপূর্ণ নির্দেশিকা। ছবি: স্ক্রিনশট, ভেরিফিকেশন হ্যান্ডবুক

  • ব্যাপকভাবে ছড়িয়ে পড়া এআই অডিও ফেকগুলোকে কার্যকরভাবে মোকাবেলার জন্য ফ্যাক্ট চেকার ও সাংবাদিকদের প্রমাণভিত্তিক ডেটার প্রয়োজন। অডিওগুলো যে জাল বা মিথ্যা— এমনটা ধারণা করলেও ডেটার মাধ্যমে তা প্রমাণ করতে হবে। তাই ফ্যাক্ট চেক সোর্স, নেটিভ ল্যাঙ্গুয়েজ এক্সপার্ট, ডিপফেকের বিপরীতে দ্রুত সাড়া প্রদান, ও সনাক্তকরণ টুলগুলো সবচেয়ে বেশি গুরুত্বপূর্ণ (নীচে আরো রয়েছে)। মিডিয়া টেকনোলজিস্ট শিরিন অ্যানলেন যেমন জোর দিয়ে বলেন, পরিস্থিতির বিপরীতে সাড়া দিতে সাংবাদিকদের প্রথাগত যাচাইকরণ পদ্ধতি দিয়ে শুরু করা উচিত — যেমন বিপরীত ছবি খোঁজা ( রিভার্স ইমেজ সার্চ),  সাক্ষাৎকার গ্রহণ এবং ক্রেগ সিলভারম্যানের ভেরিফিকেশন হ্যান্ডবুকের বিভিন্ন টুল ব্যবহার।
  • নিউজরুমগুলোর জন্য “নেতিবাচক প্রমাণ” করাটা কঠিন— তারা বলতে পারবে না যে একজন প্রার্থী কখনও এমন ভুয়া বিবৃতি দেয়নি। যে কারণে সাংবাদিকদের সেই ক্লিপটির আসল উৎস এবং সেটি প্রচারের দিকে মনোনিবেশ করতে হবে। বিশেষজ্ঞরা বলেন, ভুয়া বিবৃতি ঘিরে যাচাইকৃত ক্লিপের বিষয় নিয়ে প্রার্থী কী বলেছেন– তার ওপর আলোকপাত করা উচিৎ সাংবাদিকদের। তাই প্রয়োজনে হেডলাইনসহ সঠিক বিবৃতিগুলো সবার আগে তুলে ধরতে হবে।
  • সবচেয়ে গুরুত্বপূর্ণ: বিশেষজ্ঞরা জোর দিয়েছেন যে, এআই অডিও ডিপফেক প্রতিরোধে সবচেয়ে গুরুত্বপূর্ণ মিডিয়ায় ওপর সবার আস্থার বিষয়টি। সংবাদ আউটলেটগুলোকে নির্বাচনী প্রচারাভিযান এবং অনুসন্ধানে এতোটাই কঠোর ও প্রমাণ-ভিত্তিক হতে হবে যেন নির্বাচনের সময় তাদের ডিপফেক বিষয়ক তদন্তগুলো নিয়ে কারো সন্দেহ না থাকে।
  • নিয়ন্ত্রক সংস্থার মন্তব্য ও নীতিমালা থেকে সেগুলোর প্রভাব খুঁজে বের করুন। স্ক্যামার থেকে শুরু করে রোবোকলের নেপথ্যের ভুয়া মানুষদের পরিচয় এবং পৃথক ব্যক্তিকে চিহ্নিত করার কাজটা বেশ কঠিন। কিন্তু এটি করার মাধ্যমে অনুসন্ধানী সাংবাদিকতা আরও বড় প্রভাব তৈরি করতে পারে। এগুলো আইন প্রণেতা আর সরকারী নিয়ন্ত্রকদের চাপ দিতে পারে এ ধরনের এআই সৃষ্ট অডিও স্প্যাম সীমিত বা নিষিদ্ধ করার জন্য। মার্কিন ফেডারেল কমিউনিকেশন কমিশন নির্বাচনী বিভ্রান্তিমূলক হুমকির প্রত্যক্ষ প্রতিক্রিয়া হিসাবে ফেব্রুয়ারী মাস থেকে রোবোকলে এআই টুলের ব্যবহার নিষিদ্ধ করে দিয়েছে

নির্বাচনের প্রাক্কালে ডিপফেকের আরও যত ঝুঁকি

ডিপফেকের বৃদ্ধি খোদ অনুসন্ধানী সাংবাদিকতার জন্যও বড় ধরনের হুমকি হয়ে উঠেছে। রাজনীতিবিদ কিংবা সংশ্লিষ্ট গোষ্ঠীর প্রতিনিধিরা তাদের আপত্তিকর বিবৃতিকে সম্পূর্ণ অস্বীকার করে উল্টো দাবী করতে পারেন যে, তাদের নকল ভিডিও বা অডিও ক্লিপগুলো প্রচারের মাধ্যমে সাংবাদিকেরা মানবাধিকারের অপব্যবহার করছে, ভিডিওগুলো মোটেই তাদের নয়, বরং উন্নত এআই ডিপফক; তাদের এমন যুক্তি খণ্ডন করাটা কিন্তু কঠিন হতে পারে। ভারত এবং ইথিওপিয়ার রাজনীতিবিদদের সঙ্গে এমনটি ঘটেছে। সঠিক উৎস অনুসন্ধান, রেকর্ডিং যাচাইয়ের মতো সাংবাদিকদের নতুন দায়িত্বগুলো নিয়ে উইটনেসের নির্বাহী পরিচালক স্যাম গ্রেগরির মতো বিশেষজ্ঞরা গভীর উদ্বেগ প্রকাশ করেন। এ সমস্যাটি “মিথ্যাবাদীর লভ্যাংশ” হিসাবে পরিচিত এবং এর চূড়ান্ত সমাধানের সঙ্গে মিডিয়ার বিশ্বাস জড়িত: নিউজরুমগুলোকে নিরলসভাবে নিশ্চিত করতে হবে যে, তাদের অনুসন্ধান এবং নির্বাচন সম্পর্কিত তথ্যগুলো সত্য ও নির্ভরযোগ্য। (নিচে টেড টকে ডিপফেকের হুমকি নিয়ে  গ্রেগরির করা আলোচনাটি দেখুন।)

ওয়াচডগ রিপোর্টারদের জন্য বিশেষ করে স্লোভাকিয়ার ঘটনাটি দুটি কারণে উদ্বেগের। প্রথমত, নির্বাচনী কারচুপির ওপর আলোকপাত করে দুই মিনিটের ভুয়া অডিও ক্লিপে অনুসন্ধানী সাংবাদিক মনিকা টোডোভার কণ্ঠস্বর জুড়ে দেয়া হয়— যা ছিল বিরোধী নেতার সঙ্গে তার কথোপকথন। এ ঘটনার ওপর করা দ্য ডায়ালের একটি অনুসন্ধানী প্রতিবেদনে টোডোভা জানান, তিনি প্রাথমিকভাবে ভাইরাল ক্লিপটিকে বিশ্বাসযোগ্য নয় বলে উড়িয়ে দিয়েছিলেন। “[কিন্তু] আমার বন্ধুরা আমাকে লিখেছিল যে তাদের কলেজের সহকর্মীরা এটি শুনেছে এবং বিশ্বাস করেছ। যা তারা সামাজিক যোগাযোগ মাধ্যমেও শেয়ার করেছিল। আমি তখন নিজেকে সম্পূর্ণ নতুন বাস্তবতার মধ্যে আবিষ্কার করি।”

দ্বিতীয়ত: স্লোভাকিয়ান অডিও ডিপফেক ছড়ানোর সঙ্গে বিদেশী রাষ্ট্রের ভূমিকা রয়েছে বলে সন্দেহ করা হয়। ডায়ালের অনুসন্ধানে দেখা গেছে, নির্বাচনের আগে স্লোভাকিয়ার আইন অনুসারে দুই দিনের “প্রচারণা কর্মকাণ্ড” স্থগিত রাখার ওই সময়ে ক্লিপটি প্রকাশ করা হয়। এ কৌশলটি সর্বাধিক প্রভাব রাখতে সক্ষম হয়। সাংবাদিকদেরও এক্ষেত্রে তেমন কিছু করার সুযোগ ছিল না, কারণ ডিপফেক মোকাবেলার ক্ষেত্রে দেশটির মিডিয়ার আইনগত সীমাবদ্ধতা ছিল। (২০২২ সালে জিআইজেএনের কাছে প্রোপাবলিকার ক্রেগ সিলভারম্যান বলেছিলেন, “সম্ভবত নির্বাচনী দিনের ৪৮ ঘন্টা আগের সময়টা ডিপফেক ছড়ানোর জন্য সবচেয়ে বেশি ঝুঁকিপূর্ণ, কেননা তা পরীক্ষা বা যাচাই বাছাইয়ের জন্য সাংবাদিকদের হাতে খুব কম সময় থাকে না।”)

NBC News Investigation Biden Audio Deepfake Robocall

ছবি: স্ক্রিনশর্ট, এনবিসি নিউজ

নিউ হ্যাম্পশায়ারের প্রাথমিক নির্বাচনের ঠিক আগে বাইডেনের ভুয়া রোবোকলটিও উল্লেখযোগ্য। শেষ পর্যন্ত এনবিসি নিউজ ওই ডিপফেক অডিওর উৎস খুঁজে বের করে, যেখানে একজন জাদুকর দাবি করেন, ডেমোক্র্যাটিক পার্টির বিরুদ্ধে প্রচারাভিযানের জন্য বিরোধী দলের একজন পরামর্শক তাকে অর্থ প্রদান করেছে। রিপোর্ট অনুসারে, লোকটি স্বীকার করেছে যে “ভুয়া অডিও তৈরি করতে ২০ মিনিটেরও কম সময় লেগেছে, আর খরচ হয়েছে মাত্র ১ মার্কিন ডলার।” নিজের সম্পৃক্ততার জন্য অনুতপ্ত হওয়ার পর তিনি ভুল তথ্য প্রচারের বিরুদ্ধে কাজ করতে এগিয়ে আসেন। এনবিসি নিউজকে তিনি বলেন, “এটি করা সহজ— যা সবচেয়ে বড় ধরনের ভয়ের কারণ। আর মানুষ এর জন্য প্রস্তুত নয়।”

আধুনিক ডিপফেক সনাক্তের পরামর্শ ও কৌশল

ইউক্রেনের স্টপফেকডটওআরজি সম্প্রতি প্রেসিডেন্ট ভলোদিমির জেলেনস্কির নিন্দাকারী একজন শীর্ষ জেনারেলের ডিপফেক ভিডিও সনাক্ত ও প্রকাশ করেছে।  ডিপওয়্যার স্ক্যানার টুল ব্যবহার করে দলটি দেখতে পেয়েছে যে, স্ক্যামার জিএএন (জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক) নামে একটি মেশিন লার্নিং পদ্ধতি ব্যবহার করে এক বছর আগে ইউক্রেনীয় জেনারেলের মূল ভিডিওর ওপর নকল ছবি ও অডিওকে জুড়ে দিয়েছে। অন্য বিশ্লেষকরা খুঁজে পান ডিপফেকটি প্রথম একটি টেলিগ্রাম চ্যানেল থেকে পোস্ট করা হয়েছিল যা “হাস্যকর কনটেন্ট” শেয়ার করার দাবি করে।

স্টপ ফেকের ইয়ারকোভা বলেন, সন্দেহজনক মাল্টিমিডিয়া কনটেন্টগুলো ঘিরে তদন্ত করতে সাধারণ রিভার্স ইমেজ টুলের সঙ্গে ডিটেক্টশন টুল ব্যবহার করা হয়েছে। তবে তিনি সতর্ক করে বলেন, “দুর্ভাগ্যবশত, এটি সব সময় কাজ করে না।”

“পুরোপুরি অডিও ফেক সম্পর্কে আমাদের খুব কম অভিজ্ঞতা রয়েছে,” তিনি ব্যাখ্যা করেন। “আমরা সাধারণত শুনে শুনে এই জাতীয় নকলগুলোকে আলাদা করি, কিন্তু এ পদ্ধতিটি বেশিরভাগ ক্ষেত্রে নিম্নমানের অডিওর ক্ষেত্রে কার্যকর।”

এটা মনে রাখা গুরুত্বপূর্ণ যে ডিপফেক সনাক্তকরণ একটি বিকাশমান প্রযুক্তি। এছাড়া ওপেন সোর্স এবং বাণিজ্যিক টুলগুলোরও সীমাবদ্ধতা রয়েছে, বা ভুল তথ্য দিতে পারে— তাই  সাংবাদিকদেরও সাধ্যমত পাঠকদের সতর্ক করতে হবে। উইটনেসের অ্যানলেন সতর্ক করে বলেন যে “আমাদের অভিজ্ঞতা বলে, আমরা এখনও [একটি টুল] খুঁজে পাইনি যা আমাদের কোনো না কোনো পরীক্ষায় ব্যর্থ হয়নি কিংবা যা পুরোপুরি সঠিক ও স্বচ্ছ ফলাফল প্রদান করেছে।” তবে, এগুলো সহায়ক প্রমাণ হিসাবে কাজ করতে পারে।

সন্দেহজনক অডিও মোকাবেলা করার জন্য এখানে থাকছে আরও কিছু প্রযুক্তিগত পরামর্শ।

  •  স্থানীয়দের দিয়ে অডিও পুনঃযাচাই করুন। ইয়ারকোভা একটি সস্তা অডিওফেকের কথা উল্লেখ করেছেন। ২০২৩ সালে মার্কিন প্রেসিডেন্ট জো বাইডেনের কণ্ঠস্বর নকল করে তৈরি অডিওতে ভ্লাদিমির পুতিনের অপরাজেয়তা স্বীকার করা হয়, যা রাশিয়ার রাষ্ট্রীয় মিডিয়া এবং কিছু টেলিগ্রাম চ্যানেলে ব্যাপকভাবে ছড়িয়ে দেওয়া হয়। স্টপফেক তখন কয়েকজন স্থানীয় আমেরিকানের সঙ্গে রেকর্ডিংটি শেয়ার করে, যারা সুস্পষ্টভাবে কয়েকটি ভুল ইংরেজি শব্দকে চিহ্নিত করেন। বিশেষ করে  “প্যাট্রিয়াট” শব্দে আলতো করে উচ্চারিত “আই” শব্দের ব্যবহার। স্থানীয় আমেরিকানরা তিনটি পূর্ণ সিলেবল হিসাবে এটি উচ্চারণ করে।
  • বিশেষায়িত টুল সনাক্তকরণ পোর্টাল ব্যবহারের চেষ্টা করুন। ইয়ারকোভা বলেন, ভালো অডিও ডিপফেক সনাক্তকরণ টুলের মধ্যে রয়েছে ইলেভেনল্যাবের এআইস্পিচ ক্লাসিফায়ার—  তবে এটি শুধুমাত্র ইলেভেনল্যাবের টুল দিয়ে তৈরি ক্লিপ সনাক্ত করতে সক্ষম। “পরীক্ষার জন্য আপনাকে এই সাইটে অডিও ফাইল আপলোড করতে হবে,” যোগ করেন তিনি। দ্রষ্টব্য: গবেষকরা বাইডেনের অডিও ডিপফেক চিহ্নিত করতে ইলেভেনল্যাবের সনাক্তকরণ পদ্ধতি ব্যবহার করেছেন এবং ওই কোম্পানির নিজস্ব এআই টুল ব্যবহার করে ভিডিওটি তৈরি করা হয়েছে বলে ধারণা করেন। ভুয়া অডিওটি যিনি বানিয়েছিলেন পরবর্তীতে তিনি এনবিসি নিউজকে নিশ্চিত করেন যে, এটি ব্যবহার করে ডিপফেকের সঠিক উৎস বের করা যেতে পারে।
  • এ সংক্রান্ত বিশেষজ্ঞ সূত্র তৈরি করুন। রিপোর্টাররা বিভিন্ন ফরেনসিক সংস্থা যেমন রিয়েলিটি ডিফেন্ডার, লুকাসডটএআই, রেসপিসার, ডিপমিডিয়া, বিশ্ববিদ্যালয়গুলোর ডিজিটাল ফরেনসিক ল্যাব ও  তথ্য প্রযুক্তি বিভাগের বিশেষজ্ঞদের সাহায্য নিতে পারেন। বিভিন্ন আউটলেটের জন্য বিশেষজ্ঞরা এরইমধ্যে এআই অডিও বিষয়ক যে সব উদ্ধৃতি দিয়েছেন তার ওপর ভিত্তি করে ডেটাবেস তৈরি করুন এবং খোঁজ নিন যে তারা আপনার সন্দেহজনক ক্লিপের ফরেনসিক কাজে সাহায্য করবে কিনা।
  • অডিওতে এআই ম্যানিপুলেশনের সাধারণ লক্ষণগুলো চিহ্নিত করতে প্লেএইচটি ক্লাসিফায়ার টুলটি ব্যবহার করে দেখুন। “অডিও ট্র্যাকটি এআইয়ের সাহায্যে নিয়ে তৈরি করা হয়েছে কিনা বা এটি একটি আসল রেকর্ডিং কিনা তা পরীক্ষার টুল; এখানে আবার আপনাকে অডিও ফাইল আপলোড করতে হবে,” টেক্সট-টু-স্পিচ স্টার্টআপ প্লেএইচটির একটি টুলের কথা উল্লেখ করেন ইউরকোভা। ভুয়া চিত্র অনুসন্ধানের জন্য সম্পূর্ণ বিনামূল্যের বিকল্প টুল হিসেবে তিনি এআই কিংবা নট টুল ব্যবহারের পরামর্শ দেন।  সামান্থা সুনে বলেন যে, সাংবাদিকরা সেনসিটিডটএআইয়ের মতো বিকল্প টুলগুলোও পরীক্ষা করে দেখতে পারেন।
  • একাধিক ভাষাসমৃদ্ধ পেইড ডিটেক্টর ব্যবহারের কথা বিবেচনা করুন। স্বয়ংক্রিয় অডিও যাচাইকরণ ছাড়াও, এআই ভয়েস ডিটেক্টর অতিরিক্ত কিছু বিষয় পরীক্ষার করতে পারে, যেমন ফিল্টার থেকে শুরু করে ব্যাকগ্রাউন্ড মিউজিক অপসারণ এবং রেকর্ড না রেখে অনুসন্ধানের সক্ষমতা। “প্রোগ্রামটি ব্যক্তিগত অডিও ফাইল সংরক্ষণ করে না এবং বিভিন্ন ভাষা নিয়ে কাজের সুযোগ রয়েছে,” বলে ব্যাখা করেন ইউরকোভা। তিনি আরও উল্লেখ করেন যে, এখানে আপনি একটি অ্যাকাউন্ট খুললে, প্রতি মাসে তারা আপনাকে প্রায় ২০ ডলারের সাবস্ক্রিপশন কেনার জন্য চাপ দিবে, এবং ট্রায়ালের জন্য আপনাকে কয়েক মাস সময় দিবে না। যেকোন-ভাষার সিন্থেটিক সাউন্ড ডিটেক্টর ডাকডাকগুজ, যারা ৯৩ শতাংশ নির্ভুলতার দাবি করে এবং রিয়েল-টাইম অডিও চেকার রিসেম্বল ডিটেক্টের, যেটি ব্যবহার করতে অর্থের পাশাপাশি নিবন্ধনের প্রয়োজন পড়ে— এগুলো ব্যবহারের পরামর্শ দিয়েছেন ইয়ারকোভা।
  • বিরক্তিকর বা অপ্রচলিত শব্দ ব্যবহারের বিষয়টি মনিটর করুন। গত অক্টোবরে, ইসরায়েলের সরকার গাজায় আল-আহলি হাসপাতালে বিস্ফোরণের পরে হামাসের রেডিও চ্যাটার দেখানোর জন্য একটি অডিও রেকর্ডিং প্রকাশ করে, যা কর্মকর্তারা হামাসের অপরাধের প্রমাণ হিসাবে দাবি করেছেন। আরব সাংবাদিকরা উপভাষা, বাক্য গঠন এবং কণ্ঠের উচ্চারণের সত্যতা নিয়ে সন্দেহ প্রকাশ করেছেন, অন্যদিকে চ্যানেল ফোরের আরেকটি প্রতিবেদনে দুটি পৃথক রেকর্ডিংয়ের মাধ্যমে ধারণকৃত মিথ্যা কথোপকথন হিসাবে তা বাতিল করা হয়েছে।
Channel 4 context analysis IDF released audio of purported Hamas operatives

চ্যানেল ফোর নিউজ হামাসের কথোপকথন বিশ্লেষণ করেছে, যেখানে ইসলামিক জিহাদের অংশ হিসেবে গাজার একটি হাসপাতালে বোমা হামলার জন্য দায় স্বীকার করা হয়। অডিওটি প্রকাশ করে ইসরায়েল প্রতিরক্ষা বাহিনী। যদিও তাতে  প্রাসঙ্গিকতা, উপভাষা এবং স্বরের অসঙ্গতি পাওয়া গেছে। যা আউটলেটটিকে এই সিদ্ধান্তে পৌঁছতে সাহায্য করেছে যে রেকর্ডিংটি বৈধ ছিল না। ছবি: চ্যানেল 4 নিউজ, স্ক্রিনশট

  • মেটাডেটা এবং মূল সাইটের ডোমেইন ইতিহাস অনুসন্ধান করুন। “সাংবাদিকেরা আসল সোশ্যাল মিডিয়া অ্যাকাউন্ট বা নকল পোস্টার অনুসন্ধানের জন্য হুইজ-এর মতো অনলাইন টুল ব্যবহার করতে পারেন,” ইয়ারকোভা ব্যাখ্যা করেন। রিস্কআইকিই এবং ক্রাউডট্যাঙ্গেল-এর মতো টুলগুলো ক্লিপটির উৎস অনুসন্ধানে সাহায্য করতে সক্ষম। “তবে, মূল স্ক্যামার বা আর্থিক সহায়তা প্রদানকারীদের সন্ধান করা চ্যালেঞ্জিং হতে পারে। এক্ষেত্রে আইন প্রয়োগকারী বা সাইবার নিরাপত্তা বিশেষজ্ঞদের সহায়তার প্রয়োজন হতে পারে,” বলে তিনি সতর্ক করে দেন।
  • ফ্রেম-বাই-ফ্রেম বিশ্লেষণসহ ভিডিওতে “বাদ পড়েছে” এমন বিষয়গুলো সন্ধান করুন। “ফ্রেম-বাই-ফ্রেম দেখার মাধ্যমে ভিজ্যুয়াল অসঙ্গতিগুলো দৃশ্যমান হতে পারে,” বলেছেন ইয়ারকোভা। “কথা বলার সময় ব্যক্তির মুখের অভিব্যক্তি প্রত্যাশিত আবেগের সঙ্গে মিলে যায় কিনা আমরা সেদিকে মনোযোগ দিই।” মৌখিক এবং অ-মৌখিক সংকেতের মধ্যে অমিল থেকে বোঝা যেতে পারে যে শব্দ ও মুখের অভিব্যক্তির মধ্যে পার্থক্য রয়েছে।”
  • নির্দিষ্ট ভাষা বা বাক্যাংশ বোঝার জন্য সংশ্লিষ্ট টেক্স ও ক্যাপশন বিশ্লেষণ করুন। স্পষ্ট মিথ্যা, অশ্লীলতা, এবং সহিংসতার প্ররোচনা ছাড়াও, সাংবাদিকদের রাজনৈতিক স্লোগান বা প্রচারাভিযানের বর্ণনার ক্যাপশন এবং সংশ্লিষ্ট টেক্সটের মধ্যে কোনো তথ্য লুকিয়ে আছে কিনা যা বিকৃতির ইঙ্গিত করে– তা সাংবাদিকদের খুঁজে বের করতে হবে।

দ্রুত সাড়া দিতে হবে এমন অবস্থায়, সন্দেহজনক নির্বাচনী বিষয়বস্তু বিশ্লেষণে সহায়তা করার জন্য নিউজরুমগুলো মানবাধিকার প্রযুক্তি এনজিওগুলোর কাছে আবেদন করতে পারে। উদাহরণস্বরূপ, এই ফর্মটি ব্যবহার করে, ছোট নিউজরুমগুলো ডিপফেকের র‌্যাপিড রেসপন্স প্রকল্পের বিশেষজ্ঞদের কাছ থেকে “হাই-ইম্যাক্ট” ক্লিপগুলো পুঙ্খানুপুঙ্খ বিশ্লেষণের জন্য আবেদন করতে পারে।  (তবে মনে রাখতে হবে দ্রুত-প্রতিক্রিয়া প্রকল্পের ক্ষমতা সীমিত।)

উইটনেসের অ্যানলেন বলেন, “সনাক্তকরণ টুল ব্যবহারের সীমাবদ্ধতা রয়েছে এমন ফ্যাক্ট চেকার বা স্থানীয় সাংবাদিকদের  আমারা সহযোগিতা করি।” তিনি আরো যোগ করেন যে, গবেষকরা ইতিমধ্যেই ইন্দোনেশিয়া, পাকিস্তান এবং ভারতে নির্বাচন নিয়ে নিউজরুমগুলোর সঙ্গে কাজ করেছেন৷ তবে নিউ ইয়র্ক টাইমস বা গার্ডিয়ানের সঙ্গে আমাদের কাজ করার সম্ভাবনা কম কারণ তাদের রয়েছে দুর্দান্ত অনুসন্ধানী সংস্থান। আমাদের ১৫টি দল রয়েছে — প্রায় ৪০ জন বিশেষজ্ঞ আছেন— যারা স্থানীয় প্রেক্ষাপটে ভিডিও বা চিত্র কিংবা অডিও সম্পর্কিত বিষয় বিশ্লেষণে দক্ষতা সম্পন্ন। আমরা যতটা সম্ভব বিশ্লেষণধর্মী তথ্য দেওয়ার চেষ্টা করি,  সেই ডেটা দিয়ে সাংবাদিকরা যা খুশি তা করতে পারেন।”

উইটনেসের গবেষকদের মধ্যে ডিপফেক মোকাবেলার মন্ত্র হলো “আতঙ্কিত হবেন না, প্রস্তুতি রাখুন।”

তবে এ বিষয়ক চ্যালেঞ্জ সম্পর্কে নিজের মূল ব্লগ পোস্টে স্যাম গ্রেগরি লিখেছেন: “আমাদের প্রয়োজন তহবিলদাতা, সাংবাদিকতা বিষয়ক শিক্ষাবিদ এবং সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলোর মাধ্যমে মিডিয়ার ফরেনসিক সক্ষমতা এবং বিশ্বব্যাপী সাংবাদিকদের মধ্যে টুল ব্যবহার বিষয়ক দক্ষতা বৃদ্ধি করা। যারা সত্যকে রক্ষা করে মিথ্যাকে চ্যালেঞ্জ জানাতে অগ্রণী।”


Rowan Philp, Senior Reporter, GIJNরোয়ান ফিলিপ জিআইজেএনের জ্যেষ্ঠ প্রতিবেদক। এর আগে তিনি দক্ষিণ আফ্রিকার সানডে টাইমসের প্রধান প্রতিবেদক হিসেবে কাজ করেছেন। একজন বিদেশী সংবাদদাতা হিসেবে তিনি বিশ্বের দুই ডজনেরও বেশি দেশের সংবাদ, রাজনীতি, দুর্নীতি এবং সংঘাতের ওপর রিপোর্ট করেছেন।

ক্রিয়েটিভ কমন্স লাইসেন্সের অধীনে আমাদের লেখা বিনামূল্যে অনলাইন বা প্রিন্টে প্রকাশযোগ্য

লেখাটি পুনঃপ্রকাশ করুন


Material from GIJN’s website is generally available for republication under a Creative Commons Attribution-NonCommercial 4.0 International license. Images usually are published under a different license, so we advise you to use alternatives or contact us regarding permission. Here are our full terms for republication. You must credit the author, link to the original story, and name GIJN as the first publisher. For any queries or to send us a courtesy republication note, write to hello@gijn.org.

পরবর্তী

পরামর্শ ও টুল

বৈশ্বিক সহযোগিতা ও কৃত্রিম বুদ্ধিমত্তা: অনুসন্ধানী সাংবাদিকতার ভবিষ্যৎ গতিপথ 

কৃত্রিম বুদ্ধিমত্তা ও আন্তঃসীমান্ত সহযোগিতার সর্বোচ্চ ব্যবহার নিশ্চিত করা এবং এ সংক্রান্ত ভুলভ্রান্তি এড়ানোর পরামর্শ দিয়েছেন তিন অভিজ্ঞ সাংবাদিক।

AI fact checking 2024 elections

পরামর্শ ও টুল সংবাদ ও বিশ্লেষণ

নির্বাচনে ভুয়া তথ্য ঠেকাচ্ছে জেনারেটিভ এআই, বৈশ্বিক দক্ষিণে প্রভাব কম

নির্বাচনকে কেন্দ্র করে এআই ব্যবহার করে ভুয়া তথ্যের প্রচার যেমন চলছে, তেমনি সত্যতা যাচাইয়ের কাজও করছে এআই। কিন্তু পশ্চিমের বাইরের দেশগুলোয় তথ্য যাচাইয়ে এআই খুব একটা সুবিধা করে উঠতে পারছে না। আছে নানা সীমাবদ্ধতা।

বিশ্ব মুক্ত গণমাধ্যম সূচক ২০২৪: নির্বাচনী বছরে রাজনৈতিক চাপ, হুমকিতে সাংবাদিকতা

২০২৪ বিশ্ব মুক্ত গণমাধ্যম সূচক বলছে, বিশ্ব জুড়েই রাজনৈতিক পরিস্থিতির অবনতি লক্ষ্যনীয়, যা গড়ে ৭ দশমিক ৬ শতাংশ। আরএসএফ এর সূচকে বিশ্বের ১৮০টি দেশের মধ্যে মাত্র এক চতুর্থাংশে সাংবাদিকতা চর্চার পরিবেশ সন্তোষজনক।

Supreme Court protest, corruption

অনুসন্ধান পদ্ধতি

যুক্তরাষ্ট্রের আদালত কেলেঙ্কারি, যেভাবে উন্মোচন প্রোপাবলিকার

প্রোপাবলিকার করা ধারাবাহিক প্রতিবেদনগুলোর প্রথম পর্ব যুক্তরাষ্ট্রে সুপ্রিম কোর্টের বিচারপতিদের আচরণবিধির তদারকিতে যে দুর্বলতা রয়েছে তা উন্মোচন করে দেয়। অনুসন্ধানে বেরিয়ে আসে বিচারপতিদের কেউ কেউ প্রভাবশালী ও ধণাঢ্য ব্যক্তিদের কাছ থেকে মূল্যবান উপঢৌকন গ্রহণ করেছেন, অবকাশযাপনে বিশ্বব্যাপী ঘুরে বেড়িয়েছেন।