Image: Shutterstock
২০২৪ সালের নির্বাচন ঘিরে হুমকি এআই অডিও ডিপফেক সনাক্ত ও অনুসন্ধান করবেন কীভাবে
আর্টিকেলটি পড়ুন এই ভাষায়:
২০২৩ সালের অক্টোবরে স্লোভাকিয়াতে নির্বাচনের সময় কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তৈরি বিরোধী দলীয় এক প্রার্থীর কণ্ঠস্বরের নকল একটি অডিও (এআই ডিপফেক অডিও) ছড়িয়ে পড়লে জনমত রাশিয়াপন্থী প্রার্থীর পক্ষে চলে যায়। আরেকটি ভুয়া এআই ডিপফেক অডিও জুড়ে দেওয়া হয় পাকিস্তানের এক প্রার্থীর মূল ভিডিও ক্লিপের সঙ্গে, যেখানে ভোটারদের উদ্দেশ্যে ২০২৪ সালের ফেব্রুয়ারির সাধারণ নির্বাচন বয়কটের আহ্বান জানানো হয়। জানুয়ারিতে বাংলাদেশে নির্বাচনের আগে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তৈরি বিরোধী দলের প্রার্থীদের সস্তা ভিডিও ছড়িয়ে ভোটারদের বিভ্রান্ত করার চেষ্টা করা হয়। এদিকে মার্কিন যুক্তরাষ্ট্রের প্রেসিডেন্ট জো বাইডেনের কণ্ঠস্বর ব্যবহার করে তৈরি অডিও ক্লিপে দেশটির গুরুত্বপূর্ণ একটি রাজ্যের ভোটারদের প্রাথমিক নির্বাচনে ভোট না দেওয়ার জন্য আহ্বান জানানো হয়েছে।
২০২৪ সালকে ঐতিহাসিক নির্বাচনের বছরের পাশাপাশি কৃত্রিম বুদ্ধিমত্তাচালিত ডিপফেকের বছর হিসেবেও আখ্যায়িত করছেন বিশেষজ্ঞরা, যেগুলো ঝুঁকির মুখে থাকা গণতন্ত্রগুলোর জন্য বিপর্যয়কর পরিণতি বয়ে আনতে পারে। সাম্প্রতিক গবেষণায় দেখা যায়, সাধারণভাবে প্রায় অর্ধেক মানুষই বাস্তব চিত্র এবং এআই ব্যবহার করে তৈরি করা ছবির মধ্যের পার্থক্য ধরতে পারেন না। তাছাড়া ভোটাররাও ভুয়া কণ্ঠস্বরগুলো সনাক্তে সক্ষম হন না— এবং এই প্রযুক্তি তারপর থেকে আরও উন্নত হয়ে উঠছে।
সিন্থেটিক মিডিয়া ব্যবহার করে ছবির সূক্ষ্ম পরিবর্তন থেকে শুরু করে ডিপফেকে ডিজিটাল অ্যাভাটার দিয়ে ডিজিটাল রেকর্ডিংয়ের মাধ্যমে ভয়েস ক্লোনিং এবং অত্যাধুনিক “ফেস-সোয়াপ” করা হয়, যেখানে ব্যবহার করা হয় কাস্টমাইজড বিভিন্ন টুল। (ইন্টারনেটে ডিপফেক ভিডিওর সিংহভাগই নারী বিদ্বেষ আর ব্যক্তিগত প্রতিহিংসা চালিত হয়ে তৈরি করতে দেখা যায়: নকল যৌন চিত্রের মাধ্যমে নারীদের লাঞ্ছিত করতে এ টুলগুলো ব্যবহার করা হয়— যদিও কৌশলটি ক্রমবর্ধমানভাবে নারী সাংবাদিকদের আক্রমণ করার জন্যও ব্যবহৃত হচ্ছে।)
নির্বাচন ঘিরে ভুয়া অডিও কেন বড় ধরনের হুমকি তৈরি করতে পারে
মিডিয়া ম্যানিপুলেশন নিয়ে কাজ করেন এমন অনুসন্ধানকারীরা জিআইজেএনকে বলেন, কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তৈরি ভুয়া এআই জেনারেটেড অডিও সিমুলেশন— যেখানে মূল কণ্ঠস্বরকে মেশিন লার্নিং টুল দিয়ে ভুয়া বার্তা ছড়ানোর জন্য ক্লোন করা হয়— বানোয়াট ভিডিওর বিপরীতে ২০২৪ ও ২০২৫ সালের নির্বাচনে আরও বড় হুমকি হিসেবে আবির্ভূত হতে পারে। এর অন্যতম প্রধান কারণ হচ্ছে, তথাকথিত চিপফেকগুলোর মতো, অডিও ডিপফেক বানানোটা সহজ ও সাশ্রয়ী। (চিপফেক এরইমধ্যেই নির্বাচনী বিভ্রান্তিতে ব্যাপকভাবে ব্যবহার করা হয়েছে। দেখা যায়, মূল ঘটনাটি যে জায়গায় ঘটেছে কথিত ভিডিওটি অন্য জায়গার। আর তাতে ছোট ছোট অডিও ক্লিপগুলো খুব বাজে ও অশোভনভাবে জুড়ে দেওয়া হয়েছে, বা ক্যাপশনের লেখাগুলোও উদ্দেশ্যমূলকভাবে সম্পাদনা করা হয়েছে।) এটি প্রতারকদের আরও যে সুবিধা দেয়, তা হলো: কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি নকল কণ্ঠস্বর রোবোকল ব্যবহার করে (বিশেষ করে) বয়স্ক ও সক্রিয় ভোটারদের সহজে লক্ষ্যবস্তু করা সম্ভব হয়। এবং রোবোকলের উৎস খুঁজে বের করাটা অনুসন্ধানী সাংবাদিকদের জন্য এখনো অন্ধকার জায়গা হিসেবে থেকে গেছে।
“এআই অডিও ফেক বড় ধরনের হুমকি সৃষ্টি করতে পারে,” বলে জোর দেন সাংবাদিকতার প্রশিক্ষক ও ইউক্রেনের স্বাধীন ফ্যাক্টচেক সংস্থা স্টপফেকডটওআরজির সহপ্রতিষ্ঠাতা ওলগা ইয়ারকোভা। “এগুলো ডিপফেক ভিডিওর তুলনায় তৈরি করাটা সহজ ও সাশ্রয়ী, যা খালি চোখে সনাক্ত করাটাও কঠিন, কেননা সনাক্তের জন্য খুব কম প্রাসঙ্গিক সূত্র আপনি এতে খুঁজে পাবেন। এছাড়াও, এগুলো বড় পরিসরে ছড়িয়ে পড়ার আশঙ্কাও বেশি থাকে, যেমন হোয়াটসঅ্যাপ চ্যাটের মাধ্যমে।”
তিনি আরো যোগ করেন: “এগুলো বিশ্লেষণ করার কাজটিও জটিল। ভয়েস জেনারেশন টুল ভিডিও জেনারেশন টুলের চেয়ে বেশি উন্নত। এমনকি নমুনা কণ্ঠস্বর এবং সংকেতের ফ্রিকোয়েন্সি পরীক্ষা করার জন্য ব্যবহৃত বর্ণালী বিশ্লেষণ পদ্ধতির ক্ষেত্রেও এটি সময়সাপেক্ষ। তাছাড়া সব ফলাফলটি যে সঠিক হবে এমন কোনো নিশ্চয়তাও নেই। এছাড়াও, ডিপফেক প্রযুক্তির আশ্রয় না নিয়েও ভুয়া অডিও তৈরির অনেক সুযোগ ও সহজলভ্য উপায় রয়েছে।”
ডেটা জার্নালিজম প্রশিক্ষক সামান্থা সুনে বলেন, নির্বাচনের সময় নিউজরুমগুলোর ধারাবাহিকভাবে সতর্ক থাকা প্রয়োজন— বিশেষ করে এখনো গবেষণা বা বিশ্লেষণ করা হয়নি এমন ধরনের এআই অডিও ফেকের আকস্মিক হুমকিগুলো নিয়ে, কেননা সনাক্তকরণ ও পর্যবেক্ষণ টুলগুলোর মতো ডিপফেক প্রযুক্তিও দ্রুত বদলে যাচ্ছে।
ফ্যাক্ট চেক সংস্থা এবং গণতন্ত্রপন্থী বেশ কিছু এনজিও বর্তমানে নিউজরুম ও নাগরিক গোষ্ঠীকে ভাইরাল ও সন্দেহজনক নির্বাচনী বিষয়বস্তু বিশ্লেষণে সহায়তা করছে। যেমন উইটনেস, মানবাধিকার ক্ষমতায়নের পক্ষে কাজ করা অলাভজনক এ প্রতিষ্ঠানটি গত বছরে একটি পাইলট ডিপফেক র্যাপিড রেসপন্স প্রকল্প পরিচালনা করে, প্রায় ৪০টি গবেষণা এবং বিশেষজ্ঞদের নেটওয়ার্ক ব্যবহার করে কয়েক ডজন সন্দেহজনক ক্লিপ বিশ্লেষণ করে। জিআইজেএনের সঙ্গে সাক্ষাৎকারে, র্যাপিড রেসপন্স প্রজেক্টের ম্যানেজার শিরিন অ্যানলেন বলেন, এআই অডিও ফেক তৈরি করা সবচেয়ে সহজ আর সনাক্ত করাটা সবচেয়ে কঠিন— যা নির্বাচনী অনিষ্ট সৃষ্টির লক্ষ্যে তৈরি বলে মনে হচ্ছে।
“আমরা দেখতে পেয়েছি যে, ডিপফেক ভিডিও চিহ্নিত করতে আমরা যতটা প্রস্তুত, অডিওর ক্ষেত্রে ততটা নই— বর্তমানে আমরা এ পার্থক্যটা দেখতে পাচ্ছি,” অ্যানলেন বলেন। ২০২৩ সালে এআই অডিও ফেকের উচ্চ হার দেখে গবেষকেরা “বিষ্ময়” প্রকাশ করেছেন বলে যোগ করেন তিনি। নির্বাচন বা মানবাধিকারের সঙ্গে সংশ্লিষ্ট ছয়টি অতি-গুরুত্বপূর্ণ অডিওর মধ্যে চারটিই ভুয়া বলে চিহ্নিত করে দলটি।
“নির্বাচন আর বিভিন্ন সংকটজনক পরিস্থিতিতে অডিওর ব্যবহার বেশি হয়েছে বলে ধারণা করা হচ্ছে— বিভিন্ন প্ল্যাটফর্ম বা রোবোকলের মাধ্যমে এটি তৈরি ও বিতরণ করা সহজ,” বলেন অ্যানলেন। “এগুলো খুব ব্যক্তিগত— বেশিরভাগ ক্ষেত্রে বিকৃতিগুলো সনাক্তের জন্য আপনাকে ওই ব্যক্তিকে চিনতে হবে, তিনি কীভাবে কথা বলেন তা জানতে হবে। একের অধিক অডিও, ব্যাকগ্রাউন্ড নয়েজ, সঙ্গীত, অবাঞ্ছিত কথোপকথন— এগুলো সনাক্তকরণ কাজকে আরও জটিল করে তোলে, বিপরীতে ভিডিওতে মুখাবয়বের বিভিন্ন ত্রুটিসহ বিকৃতিগুলো আপনি দেখতে পান।”
তবে অ্যানলেন সতর্ক করে দিয়ে বলেন যে, “জেনারেটিভ কৌশলগুলোর তুলনায় ভিডিও সনাক্তকরণ পিছিয়ে রয়েছে,” এবং নতুন টেক্স-টু-ভিডিও ওপেনএআই টুল সোরা প্রায় বাস্তবের মতো করে উপস্থাপনে সক্ষম। তিনি আরো যোগ করেন যে বয়স্ক ভোটারদের মধ্যে এ বিষয়ক জ্ঞানের অভাব অডিও জাল এবং কৃত্রিম বুদ্ধিমত্তাচালিত রোবোকলের হুমকিগুলোকে বাড়িয়ে তোলে — “এক্স (টুইটার) বা টিকটকের ভুয়া অডিও ফিল্টার করার সক্ষমতা কম— বিষয়টির সঙ্গে মানুষ খুব একটা অভ্যস্তও নয়। ”
কোথায় — এবং কীভাবে — স্পিচ ডিপফেক ব্যবহার করা হয়
ফিন্যান্সিয়াল টাইমসের বরাতে জানা যায়, ভয়েস-ক্লোনিং টুলগুলো ভারত, যুক্তরাজ্য, নাইজেরিয়া, সুদান এবং ইথিওপিয়ার মতো দেশগুলোর নির্বাচনকে লক্ষ্যবস্তু করেছে। এফটি অনুসন্ধানে অভিযোগ করা হয়েছে যে, “ইলেভেনল্যাবস, রিসেম্বল এআই, রেসপিচার এবং রেপ্লিকা স্টুডিওর মতো স্টার্ট-আপের শক্তিশালী তবে সস্তা এআই টুলের সহজলভ্যতার কারণে এআই অডিও ফেকগুলো হঠাৎ করেই প্রচারণাকারীদের মধ্যে জনপ্রিয় হয়ে উঠেছে। উল্লেখ্য, বেশ কিছু টেক্সট-টু-স্পিচ এআই টুল প্র্যাঙ্ক, বাণিজ্যিক বিজ্ঞাপন বা এমনকি কৌতুকপূর্ণ উপহার তৈরির জন্য ডিজাইন করা হয়েছে। তবে বিশেষজ্ঞরা সতর্ক করে দিয়ে বলেন যে, রাজনৈতিক প্রচার বা এমনকি উসকানি দেওয়ার জন্যও এগুলো ব্যবহার করা যেতে পারে। প্রতিবেদনে দেখানো হয়েছে মৌলিক টুলগুলো প্রতি মাসে ১ ডলারেরও কম মূল্যে ব্যবহার করা যায় এবং প্রতি মাসে ৩৩০ ডলারের বিনিময়ে উন্নত টুলগুলো ব্যবহার করা যেতে পারে— যা রাজনৈতিক প্রচারণার বাজেটের খুবই সামান্য একটি অংশ।
এখন পর্যন্ত সবচেয়ে বিশ্বাসযোগ্য অডিও ফেক তৈরিতে এমন কণ্ঠ ব্যবহার করা হয়েছে যেগুলো ইন্টারনেটে সর্বাধিক ব্যবহৃত। বেশিরভাগ ক্ষেত্রে রাজনীতিবিদসহ সুপরিচিত ব্যক্তিত্বদের নিয়ে তৈরি সবচেয়ে দুর্দান্ত উদাহরণগুলোর মধ্যে রয়েছে ব্রিটিশ অভিনেতা ও বুদ্ধিজীবী স্টিফেন ফ্রাইকে লক্ষ্যবস্তু করা, যেখানে এআই অডিও ফেকের সাহায্যে হ্যারি পটারের সাতটি উপন্যাসের অনলাইন বর্ণনাকে ব্যবহার করে নাৎসি বিরোধী বর্ণনা তৈরি করা হয়। এরমধ্যে অন্তর্ভুক্ত ছিল জার্মান ও ডাচ নাম এবং শব্দ। যেগুলো ছিল ফ্রাইয়ের উচ্চারণের মতো পুরোপুরি সংশোধিত কণ্ঠস্বর—অভিনেতা নিজে কখনও এ কথাগুলো বলেননি। ফ্রাই কীভাবে এই বিদেশী শব্দগুলো উচ্চরণ করবেন, সে সম্পর্কেও আগাম ধারণা দিয়েছে টুলটি। ( ডিপফেক কীভাবে কাজ করে সে সম্পর্কে ধারণা পেতে নীচের ভিডিওর ১২.৩০ মিনিট থেকে ১৫.৩০ মিনিটের অংশটি দেখুন, যেখানে এআই প্রোগ্রামের সাহায্যে কীভাবে ফ্রাইয়ের কণ্ঠস্বর নকল করা হয়েছে তা তুলে ধরা হয়েছে৷)
যাইহোক, ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের কম্পিউটার সায়েন্সের অধ্যাপক ও মিডিয়া ফরেনসিক বিশেষজ্ঞ, হ্যানি ফরিদ সায়েন্টিফিক আমেরিকান ম্যাগাজিনকে বলেন, জেনারেটিভ এআই টুলের মাধ্যমে একটি নতুন, বিশ্বাসযোগ্য অডিও ডিপফেক তৈরি করার জন্য যে কোনো ব্যক্তির কণ্ঠস্বরের এক মিনিটের রেকর্ডিং যথেষ্ট। যার জন্য মাসে খরচ মাত্র ৫ ডলার।
নির্বাচন ঘিরে কাজ করছেন এমন কর্মকর্তাদের নকল করার ঝুঁকি সামনে এসেছে। বিশেষ করে আমলাদের জন্য, যাদের বক্তব্যগুলো সাধারণত সংক্ষিপ্ত ঘোষণার মধ্যে সীমাবদ্ধ থাকে। ফরিদ অডিওফেক তৈরির দুটি প্রাথমিক উপায় ব্যাখ্যা করেছেন: হয় টেক্সট-টু-স্পিচ — যেখানে একজন স্ক্যামার আসল অডিও আপলোড করে এবং তারপরে তারা ভয়েস” কী বলবে” তা টাইপ করে — অথবা স্পিচ-টু-স্পিচ, যেখানে স্ক্যামার তাদের নিজস্ব কণ্ঠে একটি বিবৃতি রেকর্ড করে, এবং তারপর টুলটি তা অন্যের কণ্ঠস্বরে রূপান্তর করে। তবে সুপরিচিত নন, এমন ব্যক্তিদের বিশ্বাসযোগ্য ভুয়া ক্লিপ তৈরির প্রচেষ্টাকে তিনি “নগন্য” বলে বর্ণনা করেছেন।
ডিজিটাল অ্যাভাটার শিল্প এক ধরনের নতুন হাইব্রিড নকল মডেল সরবরাহ করতে শুরু করেছে। যেখানে এআই স্টার্টআপগুলো তাদের তৈরি বিভিন্ন ডিজিটাল চরিত্রের মধ্য থেকে ব্যবহারকারীকে বাছাইয়ের সুযোগ করে দেয়। ডিজিটাল এই অ্যাভাটারগুলো দীর্ঘ বার্তা পাঠ করতে সক্ষম। তাছাড়া এগুলো বাস্তব চরিত্রের মুখ থেকে উচ্চারিত নকল বার্তা পাঠের তুলনায় আরো ভালোভাবে ঠোঁট মিলিয়ে দীর্ঘ বার্তা “পাঠ” করতে পারে। দ্য নিউ ইয়র্ক টাইমস অনুসারে সোশ্যাল মিডিয়া অ্যানালাইসিস কোম্পানি গ্রাফিকার গবেষকেরা লন্ডনের অক্সফোর্ড সার্কাসের কাপড়ের দোকানের উপরে অবস্থিত একটি এআই কোম্পানির অ্যাভাটার নির্ভর সংবাদ সম্প্রচার পরিষেবা নিয়ে বিশ্লেষণ করেছেন। যেখানে ব্যবহারকারীদের কয়েক ধরনের ডিজিটাল চরিত্র ও ভাষা বেছে নেওয়ার সুযোগ রয়েছে।
ভুয়া অডিও হুমকি নিয়ে কাজ করার পরামর্শ
বিশেষজ্ঞদের বিশ্লেষণ ও নতুন শনাক্তকরণ টুলগুলো উন্নত স্পিচ ডিপফেকের জন্য প্রযোজ্য, যেখানে বক্তার খুব কাছের বন্ধুরাও কণ্ঠস্বরের পার্থক্য খুঁজে বের করতে সক্ষম হন না। সাংবাদিকরা প্রায়ই প্রার্থী সম্পর্কে তাদের ধারণা, রেকর্ডিংয়ের নিম্ন মান, অডিওর বিষয়বস্তু কিংবা সাধারণ জ্ঞানের ভিত্তিতে বিভিন্ন অডিও ক্লিপের সুস্পষ্ট হেরফেরগুলো বুঝতে পারেন। তবে বিশেষজ্ঞরা সতর্ক করেছেন যে নিজ বিচক্ষণতার ওপর নির্ভর করে সন্দেহ করা এবং তা সনাক্ত করা সামগ্রিক প্রক্রিয়ার একটি ক্ষুদ্র অংশ। একটি দ্রুত, প্রমাণভিত্তিক প্রতিক্রিয়া এবং গল্পের মূল অডিওর ওপর আলোকপাত করে “ট্রুথ স্যান্ডউইচ” পদ্ধতির ব্যবহার এবং প্রতারণার উৎস খুঁজে বের করাও সমান গুরুত্বপূর্ণ।
সম্ভাব্য অডিও ডিপফেক বিশ্লেষণের জন্য এখানে ধাপে ধাপে কয়েকটি পদ্ধতি উল্লেখ করা হয়েছে।
- প্রথমত, আপনাকে সন্দেহজনক ক্লিপগুলো চিহ্নিত করতে হবে। তবে কাজটি করতে হবে খুব দ্রুত। সম্পাদকেরা হোয়াটসঅ্যাপ নাম্বার ব্যবহার করে সন্দেহজনক অডিও এবং রোবোকল সম্পর্কে মানুষকে সচেতন করার কথা বলেছেন। এর মাধ্যমে ভোটাররা প্রাথমিকভাবে সতর্ক বার্তা পাবে। যেমন ব্রাজিলের কমপ্রোভা প্রকল্প— যারা নির্বাচনী বিভ্রান্তি প্রচারের বিপরীতে অনুসন্ধান পরিচালনা করে। তাদের সঙ্গে যুক্ত রয়েছে ২৪টি মিডিয়া সংস্থা, যারা দেখিয়েছে প্রতিদ্বন্দ্বী নিউজরুমগুলো কীভাবে একই হোয়াটসঅ্যাপ নম্বর প্রকাশ করে ফলাফলগুলো শেয়ার করার পাশাপাশি ক্রাউডসোর্সিংয়ের সক্ষমতা ও ভোটারদের বিচক্ষণতাকে কাজে লাগাতে পারে। কিছু পরিষেবা আছে, যেগুলো আপনার ইমেইলে তাৎক্ষণিক ডিপফেক বিষয়ক সতর্কতা প্রদান করে, যেমন রিয়ালিটি ডিফেন্ডার। তবে সহযোগিতার মাধ্যমে বিভিন্ন অডিও ডিপফেকের বিরুদ্ধে সমন্বিত প্রচারাভিযান চালানো যায়, যেমন প্রথাগত সোশ্যাল মিডিয়া মনিটরিং, অপতথ্য যাচাইকারী সংস্থা এবং রাজনৈতিক ক্ষেত্র নিয়ে কাজ করে এমন সাংবাদিকের চ্যাট গ্রুপগুলোও তথ্য দিয়ে সহযোগিতা করতে পারে।
- ভাইরাল হওয়া জাল অডিওর বিপরীতে নিউজরুমগুলোর দ্বিতীয় ধাপের প্রারম্ভিক সতর্ক ব্যবস্থা গ্রহণ করা প্রয়োজন, যেমন কোন বিষয়টিকে অগ্রাধিকার দিতে হবে, দ্রুত আসল সত্য উদঘাটন ও চিহ্নিত করতে হবে। একাধিক সোশ্যাল মিডিয়া প্ল্যাটফর্ম জুড়ে হঠাৎ একটি অডিও ক্লিপ ছড়িয়ে পড়ার ঘটনা হতে পারে প্রাথমিত ইঙ্গিত। এক্ষেত্রে বাজসুমোর মতো বিশ্লেষণধর্মী টুলগুলো ক্লিপটি কতটা ছড়িয়েছে সে হার সম্পর্কে আপনাকে ধারণা দিতে পারে। পার্টিজান মিডিয়ার অ্যাক্টিভিস্টরা এটি বেশি ছড়িয়েছে কিনা– সেটি হতে পারে একটি ইঙ্গিত বা ক্ষতিকর ভাইরালিটির কারণ।
- মনে রাখবেন ত্রুটি ও কণ্ঠস্বরের অসঙ্গতিযুক্ত সন্দেহজনক ক্লিপগুলোও সত্য হতে পারে। বিশেষজ্ঞরা উইয়ার্ড-এর এই লেখায় যেমনটা বলেছেন, “ভীষণ চাপের মধ্যে স্ক্রিপ্ট পড়ার ফলে কণ্ঠস্বর অস্বাভাবিক শোনা যেতে পারে”— সাধারণত জিম্মি অবস্থায় থাকা ব্যক্তিদের “আসল” বিবৃতিগুলো এমন হয়। অন্যদিকে নিম্ন-মানের ভিডিওতে সন্দেহ হওয়া ত্রুটিগুলো “প্রযুক্তিগত সীমাবদ্ধতা ও ভিডিও সংকোচনের কারণে ভুয়া হিসেবে গণ্য হতে পারে।”
- ব্যাপকভাবে ছড়িয়ে পড়া এআই অডিও ফেকগুলোকে কার্যকরভাবে মোকাবেলার জন্য ফ্যাক্ট চেকার ও সাংবাদিকদের প্রমাণভিত্তিক ডেটার প্রয়োজন। অডিওগুলো যে জাল বা মিথ্যা— এমনটা ধারণা করলেও ডেটার মাধ্যমে তা প্রমাণ করতে হবে। তাই ফ্যাক্ট চেক সোর্স, নেটিভ ল্যাঙ্গুয়েজ এক্সপার্ট, ডিপফেকের বিপরীতে দ্রুত সাড়া প্রদান, ও সনাক্তকরণ টুলগুলো সবচেয়ে বেশি গুরুত্বপূর্ণ (নীচে আরো রয়েছে)। মিডিয়া টেকনোলজিস্ট শিরিন অ্যানলেন যেমন জোর দিয়ে বলেন, পরিস্থিতির বিপরীতে সাড়া দিতে সাংবাদিকদের প্রথাগত যাচাইকরণ পদ্ধতি দিয়ে শুরু করা উচিত — যেমন বিপরীত ছবি খোঁজা ( রিভার্স ইমেজ সার্চ), সাক্ষাৎকার গ্রহণ এবং ক্রেগ সিলভারম্যানের ভেরিফিকেশন হ্যান্ডবুকের বিভিন্ন টুল ব্যবহার।
- নিউজরুমগুলোর জন্য “নেতিবাচক প্রমাণ” করাটা কঠিন— তারা বলতে পারবে না যে একজন প্রার্থী কখনও এমন ভুয়া বিবৃতি দেয়নি। যে কারণে সাংবাদিকদের সেই ক্লিপটির আসল উৎস এবং সেটি প্রচারের দিকে মনোনিবেশ করতে হবে। বিশেষজ্ঞরা বলেন, ভুয়া বিবৃতি ঘিরে যাচাইকৃত ক্লিপের বিষয় নিয়ে প্রার্থী কী বলেছেন– তার ওপর আলোকপাত করা উচিৎ সাংবাদিকদের। তাই প্রয়োজনে হেডলাইনসহ সঠিক বিবৃতিগুলো সবার আগে তুলে ধরতে হবে।
- সবচেয়ে গুরুত্বপূর্ণ: বিশেষজ্ঞরা জোর দিয়েছেন যে, এআই অডিও ডিপফেক প্রতিরোধে সবচেয়ে গুরুত্বপূর্ণ মিডিয়ায় ওপর সবার আস্থার বিষয়টি। সংবাদ আউটলেটগুলোকে নির্বাচনী প্রচারাভিযান এবং অনুসন্ধানে এতোটাই কঠোর ও প্রমাণ-ভিত্তিক হতে হবে যেন নির্বাচনের সময় তাদের ডিপফেক বিষয়ক তদন্তগুলো নিয়ে কারো সন্দেহ না থাকে।
- নিয়ন্ত্রক সংস্থার মন্তব্য ও নীতিমালা থেকে সেগুলোর প্রভাব খুঁজে বের করুন। স্ক্যামার থেকে শুরু করে রোবোকলের নেপথ্যের ভুয়া মানুষদের পরিচয় এবং পৃথক ব্যক্তিকে চিহ্নিত করার কাজটা বেশ কঠিন। কিন্তু এটি করার মাধ্যমে অনুসন্ধানী সাংবাদিকতা আরও বড় প্রভাব তৈরি করতে পারে। এগুলো আইন প্রণেতা আর সরকারী নিয়ন্ত্রকদের চাপ দিতে পারে এ ধরনের এআই সৃষ্ট অডিও স্প্যাম সীমিত বা নিষিদ্ধ করার জন্য। মার্কিন ফেডারেল কমিউনিকেশন কমিশন নির্বাচনী বিভ্রান্তিমূলক হুমকির প্রত্যক্ষ প্রতিক্রিয়া হিসাবে ফেব্রুয়ারী মাস থেকে রোবোকলে এআই টুলের ব্যবহার নিষিদ্ধ করে দিয়েছে।
নির্বাচনের প্রাক্কালে ডিপফেকের আরও যত ঝুঁকি
ডিপফেকের বৃদ্ধি খোদ অনুসন্ধানী সাংবাদিকতার জন্যও বড় ধরনের হুমকি হয়ে উঠেছে। রাজনীতিবিদ কিংবা সংশ্লিষ্ট গোষ্ঠীর প্রতিনিধিরা তাদের আপত্তিকর বিবৃতিকে সম্পূর্ণ অস্বীকার করে উল্টো দাবী করতে পারেন যে, তাদের নকল ভিডিও বা অডিও ক্লিপগুলো প্রচারের মাধ্যমে সাংবাদিকেরা মানবাধিকারের অপব্যবহার করছে, ভিডিওগুলো মোটেই তাদের নয়, বরং উন্নত এআই ডিপফক; তাদের এমন যুক্তি খণ্ডন করাটা কিন্তু কঠিন হতে পারে। ভারত এবং ইথিওপিয়ার রাজনীতিবিদদের সঙ্গে এমনটি ঘটেছে। সঠিক উৎস অনুসন্ধান, রেকর্ডিং যাচাইয়ের মতো সাংবাদিকদের নতুন দায়িত্বগুলো নিয়ে উইটনেসের নির্বাহী পরিচালক স্যাম গ্রেগরির মতো বিশেষজ্ঞরা গভীর উদ্বেগ প্রকাশ করেন। এ সমস্যাটি “মিথ্যাবাদীর লভ্যাংশ” হিসাবে পরিচিত এবং এর চূড়ান্ত সমাধানের সঙ্গে মিডিয়ার বিশ্বাস জড়িত: নিউজরুমগুলোকে নিরলসভাবে নিশ্চিত করতে হবে যে, তাদের অনুসন্ধান এবং নির্বাচন সম্পর্কিত তথ্যগুলো সত্য ও নির্ভরযোগ্য। (নিচে টেড টকে ডিপফেকের হুমকি নিয়ে গ্রেগরির করা আলোচনাটি দেখুন।)
ওয়াচডগ রিপোর্টারদের জন্য বিশেষ করে স্লোভাকিয়ার ঘটনাটি দুটি কারণে উদ্বেগের। প্রথমত, নির্বাচনী কারচুপির ওপর আলোকপাত করে দুই মিনিটের ভুয়া অডিও ক্লিপে অনুসন্ধানী সাংবাদিক মনিকা টোডোভার কণ্ঠস্বর জুড়ে দেয়া হয়— যা ছিল বিরোধী নেতার সঙ্গে তার কথোপকথন। এ ঘটনার ওপর করা দ্য ডায়ালের একটি অনুসন্ধানী প্রতিবেদনে টোডোভা জানান, তিনি প্রাথমিকভাবে ভাইরাল ক্লিপটিকে বিশ্বাসযোগ্য নয় বলে উড়িয়ে দিয়েছিলেন। “[কিন্তু] আমার বন্ধুরা আমাকে লিখেছিল যে তাদের কলেজের সহকর্মীরা এটি শুনেছে এবং বিশ্বাস করেছ। যা তারা সামাজিক যোগাযোগ মাধ্যমেও শেয়ার করেছিল। আমি তখন নিজেকে সম্পূর্ণ নতুন বাস্তবতার মধ্যে আবিষ্কার করি।”
দ্বিতীয়ত: স্লোভাকিয়ান অডিও ডিপফেক ছড়ানোর সঙ্গে বিদেশী রাষ্ট্রের ভূমিকা রয়েছে বলে সন্দেহ করা হয়। ডায়ালের অনুসন্ধানে দেখা গেছে, নির্বাচনের আগে স্লোভাকিয়ার আইন অনুসারে দুই দিনের “প্রচারণা কর্মকাণ্ড” স্থগিত রাখার ওই সময়ে ক্লিপটি প্রকাশ করা হয়। এ কৌশলটি সর্বাধিক প্রভাব রাখতে সক্ষম হয়। সাংবাদিকদেরও এক্ষেত্রে তেমন কিছু করার সুযোগ ছিল না, কারণ ডিপফেক মোকাবেলার ক্ষেত্রে দেশটির মিডিয়ার আইনগত সীমাবদ্ধতা ছিল। (২০২২ সালে জিআইজেএনের কাছে প্রোপাবলিকার ক্রেগ সিলভারম্যান বলেছিলেন, “সম্ভবত নির্বাচনী দিনের ৪৮ ঘন্টা আগের সময়টা ডিপফেক ছড়ানোর জন্য সবচেয়ে বেশি ঝুঁকিপূর্ণ, কেননা তা পরীক্ষা বা যাচাই বাছাইয়ের জন্য সাংবাদিকদের হাতে খুব কম সময় থাকে না।”)
নিউ হ্যাম্পশায়ারের প্রাথমিক নির্বাচনের ঠিক আগে বাইডেনের ভুয়া রোবোকলটিও উল্লেখযোগ্য। শেষ পর্যন্ত এনবিসি নিউজ ওই ডিপফেক অডিওর উৎস খুঁজে বের করে, যেখানে একজন জাদুকর দাবি করেন, ডেমোক্র্যাটিক পার্টির বিরুদ্ধে প্রচারাভিযানের জন্য বিরোধী দলের একজন পরামর্শক তাকে অর্থ প্রদান করেছে। রিপোর্ট অনুসারে, লোকটি স্বীকার করেছে যে “ভুয়া অডিও তৈরি করতে ২০ মিনিটেরও কম সময় লেগেছে, আর খরচ হয়েছে মাত্র ১ মার্কিন ডলার।” নিজের সম্পৃক্ততার জন্য অনুতপ্ত হওয়ার পর তিনি ভুল তথ্য প্রচারের বিরুদ্ধে কাজ করতে এগিয়ে আসেন। এনবিসি নিউজকে তিনি বলেন, “এটি করা সহজ— যা সবচেয়ে বড় ধরনের ভয়ের কারণ। আর মানুষ এর জন্য প্রস্তুত নয়।”
আধুনিক ডিপফেক সনাক্তের পরামর্শ ও কৌশল
ইউক্রেনের স্টপফেকডটওআরজি সম্প্রতি প্রেসিডেন্ট ভলোদিমির জেলেনস্কির নিন্দাকারী একজন শীর্ষ জেনারেলের ডিপফেক ভিডিও সনাক্ত ও প্রকাশ করেছে। ডিপওয়্যার স্ক্যানার টুল ব্যবহার করে দলটি দেখতে পেয়েছে যে, স্ক্যামার জিএএন (জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক) নামে একটি মেশিন লার্নিং পদ্ধতি ব্যবহার করে এক বছর আগে ইউক্রেনীয় জেনারেলের মূল ভিডিওর ওপর নকল ছবি ও অডিওকে জুড়ে দিয়েছে। অন্য বিশ্লেষকরা খুঁজে পান ডিপফেকটি প্রথম একটি টেলিগ্রাম চ্যানেল থেকে পোস্ট করা হয়েছিল যা “হাস্যকর কনটেন্ট” শেয়ার করার দাবি করে।
স্টপ ফেকের ইয়ারকোভা বলেন, সন্দেহজনক মাল্টিমিডিয়া কনটেন্টগুলো ঘিরে তদন্ত করতে সাধারণ রিভার্স ইমেজ টুলের সঙ্গে ডিটেক্টশন টুল ব্যবহার করা হয়েছে। তবে তিনি সতর্ক করে বলেন, “দুর্ভাগ্যবশত, এটি সব সময় কাজ করে না।”
“পুরোপুরি অডিও ফেক সম্পর্কে আমাদের খুব কম অভিজ্ঞতা রয়েছে,” তিনি ব্যাখ্যা করেন। “আমরা সাধারণত শুনে শুনে এই জাতীয় নকলগুলোকে আলাদা করি, কিন্তু এ পদ্ধতিটি বেশিরভাগ ক্ষেত্রে নিম্নমানের অডিওর ক্ষেত্রে কার্যকর।”
এটা মনে রাখা গুরুত্বপূর্ণ যে ডিপফেক সনাক্তকরণ একটি বিকাশমান প্রযুক্তি। এছাড়া ওপেন সোর্স এবং বাণিজ্যিক টুলগুলোরও সীমাবদ্ধতা রয়েছে, বা ভুল তথ্য দিতে পারে— তাই সাংবাদিকদেরও সাধ্যমত পাঠকদের সতর্ক করতে হবে। উইটনেসের অ্যানলেন সতর্ক করে বলেন যে “আমাদের অভিজ্ঞতা বলে, আমরা এখনও [একটি টুল] খুঁজে পাইনি যা আমাদের কোনো না কোনো পরীক্ষায় ব্যর্থ হয়নি কিংবা যা পুরোপুরি সঠিক ও স্বচ্ছ ফলাফল প্রদান করেছে।” তবে, এগুলো সহায়ক প্রমাণ হিসাবে কাজ করতে পারে।
সন্দেহজনক অডিও মোকাবেলা করার জন্য এখানে থাকছে আরও কিছু প্রযুক্তিগত পরামর্শ।
- স্থানীয়দের দিয়ে অডিও পুনঃযাচাই করুন। ইয়ারকোভা একটি সস্তা অডিওফেকের কথা উল্লেখ করেছেন। ২০২৩ সালে মার্কিন প্রেসিডেন্ট জো বাইডেনের কণ্ঠস্বর নকল করে তৈরি অডিওতে ভ্লাদিমির পুতিনের অপরাজেয়তা স্বীকার করা হয়, যা রাশিয়ার রাষ্ট্রীয় মিডিয়া এবং কিছু টেলিগ্রাম চ্যানেলে ব্যাপকভাবে ছড়িয়ে দেওয়া হয়। স্টপফেক তখন কয়েকজন স্থানীয় আমেরিকানের সঙ্গে রেকর্ডিংটি শেয়ার করে, যারা সুস্পষ্টভাবে কয়েকটি ভুল ইংরেজি শব্দকে চিহ্নিত করেন। বিশেষ করে “প্যাট্রিয়াট” শব্দে আলতো করে উচ্চারিত “আই” শব্দের ব্যবহার। স্থানীয় আমেরিকানরা তিনটি পূর্ণ সিলেবল হিসাবে এটি উচ্চারণ করে।
- বিশেষায়িত টুল সনাক্তকরণ পোর্টাল ব্যবহারের চেষ্টা করুন। ইয়ারকোভা বলেন, ভালো অডিও ডিপফেক সনাক্তকরণ টুলের মধ্যে রয়েছে ইলেভেনল্যাবের এআইস্পিচ ক্লাসিফায়ার— তবে এটি শুধুমাত্র ইলেভেনল্যাবের টুল দিয়ে তৈরি ক্লিপ সনাক্ত করতে সক্ষম। “পরীক্ষার জন্য আপনাকে এই সাইটে অডিও ফাইল আপলোড করতে হবে,” যোগ করেন তিনি। দ্রষ্টব্য: গবেষকরা বাইডেনের অডিও ডিপফেক চিহ্নিত করতে ইলেভেনল্যাবের সনাক্তকরণ পদ্ধতি ব্যবহার করেছেন এবং ওই কোম্পানির নিজস্ব এআই টুল ব্যবহার করে ভিডিওটি তৈরি করা হয়েছে বলে ধারণা করেন। ভুয়া অডিওটি যিনি বানিয়েছিলেন পরবর্তীতে তিনি এনবিসি নিউজকে নিশ্চিত করেন যে, এটি ব্যবহার করে ডিপফেকের সঠিক উৎস বের করা যেতে পারে।
- এ সংক্রান্ত বিশেষজ্ঞ সূত্র তৈরি করুন। রিপোর্টাররা বিভিন্ন ফরেনসিক সংস্থা যেমন রিয়েলিটি ডিফেন্ডার, লুকাসডটএআই, রেসপিসার, ডিপমিডিয়া, বিশ্ববিদ্যালয়গুলোর ডিজিটাল ফরেনসিক ল্যাব ও তথ্য প্রযুক্তি বিভাগের বিশেষজ্ঞদের সাহায্য নিতে পারেন। বিভিন্ন আউটলেটের জন্য বিশেষজ্ঞরা এরইমধ্যে এআই অডিও বিষয়ক যে সব উদ্ধৃতি দিয়েছেন তার ওপর ভিত্তি করে ডেটাবেস তৈরি করুন এবং খোঁজ নিন যে তারা আপনার সন্দেহজনক ক্লিপের ফরেনসিক কাজে সাহায্য করবে কিনা।
- অডিওতে এআই ম্যানিপুলেশনের সাধারণ লক্ষণগুলো চিহ্নিত করতে প্লেএইচটি ক্লাসিফায়ার টুলটি ব্যবহার করে দেখুন। “অডিও ট্র্যাকটি এআইয়ের সাহায্যে নিয়ে তৈরি করা হয়েছে কিনা বা এটি একটি আসল রেকর্ডিং কিনা তা পরীক্ষার টুল; এখানে আবার আপনাকে অডিও ফাইল আপলোড করতে হবে,” টেক্সট-টু-স্পিচ স্টার্টআপ প্লেএইচটির একটি টুলের কথা উল্লেখ করেন ইউরকোভা। ভুয়া চিত্র অনুসন্ধানের জন্য সম্পূর্ণ বিনামূল্যের বিকল্প টুল হিসেবে তিনি এআই কিংবা নট টুল ব্যবহারের পরামর্শ দেন। সামান্থা সুনে বলেন যে, সাংবাদিকরা সেনসিটিডটএআইয়ের মতো বিকল্প টুলগুলোও পরীক্ষা করে দেখতে পারেন।
- একাধিক ভাষাসমৃদ্ধ পেইড ডিটেক্টর ব্যবহারের কথা বিবেচনা করুন। স্বয়ংক্রিয় অডিও যাচাইকরণ ছাড়াও, এআই ভয়েস ডিটেক্টর অতিরিক্ত কিছু বিষয় পরীক্ষার করতে পারে, যেমন ফিল্টার থেকে শুরু করে ব্যাকগ্রাউন্ড মিউজিক অপসারণ এবং রেকর্ড না রেখে অনুসন্ধানের সক্ষমতা। “প্রোগ্রামটি ব্যক্তিগত অডিও ফাইল সংরক্ষণ করে না এবং বিভিন্ন ভাষা নিয়ে কাজের সুযোগ রয়েছে,” বলে ব্যাখা করেন ইউরকোভা। তিনি আরও উল্লেখ করেন যে, এখানে আপনি একটি অ্যাকাউন্ট খুললে, প্রতি মাসে তারা আপনাকে প্রায় ২০ ডলারের সাবস্ক্রিপশন কেনার জন্য চাপ দিবে, এবং ট্রায়ালের জন্য আপনাকে কয়েক মাস সময় দিবে না। যেকোন-ভাষার সিন্থেটিক সাউন্ড ডিটেক্টর ডাকডাকগুজ, যারা ৯৩ শতাংশ নির্ভুলতার দাবি করে এবং রিয়েল-টাইম অডিও চেকার রিসেম্বল ডিটেক্টের, যেটি ব্যবহার করতে অর্থের পাশাপাশি নিবন্ধনের প্রয়োজন পড়ে— এগুলো ব্যবহারের পরামর্শ দিয়েছেন ইয়ারকোভা।
- বিরক্তিকর বা অপ্রচলিত শব্দ ব্যবহারের বিষয়টি মনিটর করুন। গত অক্টোবরে, ইসরায়েলের সরকার গাজায় আল-আহলি হাসপাতালে বিস্ফোরণের পরে হামাসের রেডিও চ্যাটার দেখানোর জন্য একটি অডিও রেকর্ডিং প্রকাশ করে, যা কর্মকর্তারা হামাসের অপরাধের প্রমাণ হিসাবে দাবি করেছেন। আরব সাংবাদিকরা উপভাষা, বাক্য গঠন এবং কণ্ঠের উচ্চারণের সত্যতা নিয়ে সন্দেহ প্রকাশ করেছেন, অন্যদিকে চ্যানেল ফোরের আরেকটি প্রতিবেদনে দুটি পৃথক রেকর্ডিংয়ের মাধ্যমে ধারণকৃত মিথ্যা কথোপকথন হিসাবে তা বাতিল করা হয়েছে।
- মেটাডেটা এবং মূল সাইটের ডোমেইন ইতিহাস অনুসন্ধান করুন। “সাংবাদিকেরা আসল সোশ্যাল মিডিয়া অ্যাকাউন্ট বা নকল পোস্টার অনুসন্ধানের জন্য হুইজ-এর মতো অনলাইন টুল ব্যবহার করতে পারেন,” ইয়ারকোভা ব্যাখ্যা করেন। রিস্কআইকিই এবং ক্রাউডট্যাঙ্গেল-এর মতো টুলগুলো ক্লিপটির উৎস অনুসন্ধানে সাহায্য করতে সক্ষম। “তবে, মূল স্ক্যামার বা আর্থিক সহায়তা প্রদানকারীদের সন্ধান করা চ্যালেঞ্জিং হতে পারে। এক্ষেত্রে আইন প্রয়োগকারী বা সাইবার নিরাপত্তা বিশেষজ্ঞদের সহায়তার প্রয়োজন হতে পারে,” বলে তিনি সতর্ক করে দেন।
- ফ্রেম-বাই-ফ্রেম বিশ্লেষণসহ ভিডিওতে “বাদ পড়েছে” এমন বিষয়গুলো সন্ধান করুন। “ফ্রেম-বাই-ফ্রেম দেখার মাধ্যমে ভিজ্যুয়াল অসঙ্গতিগুলো দৃশ্যমান হতে পারে,” বলেছেন ইয়ারকোভা। “কথা বলার সময় ব্যক্তির মুখের অভিব্যক্তি প্রত্যাশিত আবেগের সঙ্গে মিলে যায় কিনা আমরা সেদিকে মনোযোগ দিই।” মৌখিক এবং অ-মৌখিক সংকেতের মধ্যে অমিল থেকে বোঝা যেতে পারে যে শব্দ ও মুখের অভিব্যক্তির মধ্যে পার্থক্য রয়েছে।”
- নির্দিষ্ট ভাষা বা বাক্যাংশ বোঝার জন্য সংশ্লিষ্ট টেক্স ও ক্যাপশন বিশ্লেষণ করুন। স্পষ্ট মিথ্যা, অশ্লীলতা, এবং সহিংসতার প্ররোচনা ছাড়াও, সাংবাদিকদের রাজনৈতিক স্লোগান বা প্রচারাভিযানের বর্ণনার ক্যাপশন এবং সংশ্লিষ্ট টেক্সটের মধ্যে কোনো তথ্য লুকিয়ে আছে কিনা যা বিকৃতির ইঙ্গিত করে– তা সাংবাদিকদের খুঁজে বের করতে হবে।
দ্রুত সাড়া দিতে হবে এমন অবস্থায়, সন্দেহজনক নির্বাচনী বিষয়বস্তু বিশ্লেষণে সহায়তা করার জন্য নিউজরুমগুলো মানবাধিকার প্রযুক্তি এনজিওগুলোর কাছে আবেদন করতে পারে। উদাহরণস্বরূপ, এই ফর্মটি ব্যবহার করে, ছোট নিউজরুমগুলো ডিপফেকের র্যাপিড রেসপন্স প্রকল্পের বিশেষজ্ঞদের কাছ থেকে “হাই-ইম্যাক্ট” ক্লিপগুলো পুঙ্খানুপুঙ্খ বিশ্লেষণের জন্য আবেদন করতে পারে। (তবে মনে রাখতে হবে দ্রুত-প্রতিক্রিয়া প্রকল্পের ক্ষমতা সীমিত।)
উইটনেসের অ্যানলেন বলেন, “সনাক্তকরণ টুল ব্যবহারের সীমাবদ্ধতা রয়েছে এমন ফ্যাক্ট চেকার বা স্থানীয় সাংবাদিকদের আমারা সহযোগিতা করি।” তিনি আরো যোগ করেন যে, গবেষকরা ইতিমধ্যেই ইন্দোনেশিয়া, পাকিস্তান এবং ভারতে নির্বাচন নিয়ে নিউজরুমগুলোর সঙ্গে কাজ করেছেন৷ তবে নিউ ইয়র্ক টাইমস বা গার্ডিয়ানের সঙ্গে আমাদের কাজ করার সম্ভাবনা কম কারণ তাদের রয়েছে দুর্দান্ত অনুসন্ধানী সংস্থান। আমাদের ১৫টি দল রয়েছে — প্রায় ৪০ জন বিশেষজ্ঞ আছেন— যারা স্থানীয় প্রেক্ষাপটে ভিডিও বা চিত্র কিংবা অডিও সম্পর্কিত বিষয় বিশ্লেষণে দক্ষতা সম্পন্ন। আমরা যতটা সম্ভব বিশ্লেষণধর্মী তথ্য দেওয়ার চেষ্টা করি, সেই ডেটা দিয়ে সাংবাদিকরা যা খুশি তা করতে পারেন।”
উইটনেসের গবেষকদের মধ্যে ডিপফেক মোকাবেলার মন্ত্র হলো “আতঙ্কিত হবেন না, প্রস্তুতি রাখুন।”
তবে এ বিষয়ক চ্যালেঞ্জ সম্পর্কে নিজের মূল ব্লগ পোস্টে স্যাম গ্রেগরি লিখেছেন: “আমাদের প্রয়োজন তহবিলদাতা, সাংবাদিকতা বিষয়ক শিক্ষাবিদ এবং সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলোর মাধ্যমে মিডিয়ার ফরেনসিক সক্ষমতা এবং বিশ্বব্যাপী সাংবাদিকদের মধ্যে টুল ব্যবহার বিষয়ক দক্ষতা বৃদ্ধি করা। যারা সত্যকে রক্ষা করে মিথ্যাকে চ্যালেঞ্জ জানাতে অগ্রণী।”
রোয়ান ফিলিপ জিআইজেএনের জ্যেষ্ঠ প্রতিবেদক। এর আগে তিনি দক্ষিণ আফ্রিকার সানডে টাইমসের প্রধান প্রতিবেদক হিসেবে কাজ করেছেন। একজন বিদেশী সংবাদদাতা হিসেবে তিনি বিশ্বের দুই ডজনেরও বেশি দেশের সংবাদ, রাজনীতি, দুর্নীতি এবং সংঘাতের ওপর রিপোর্ট করেছেন।