schema:text
| - ভারত থেকে নেমে আসা পাহাড়ি ঢল ও টানা ভারী বৃষ্টিপাতের ফলে বাংলাদেশের বেশ কয়েকটি জেলায় আকস্মিক বন্যার সৃষ্টি হয়েছে। এই বন্যার করুণ চিত্র সামাজিক মাধ্যমে ব্যাপকভাবে ছড়িয়ে পড়েছে। এর মধ্যে একটি বিশেষ ছবি সবার মনোযোগ কেড়েছে, যেখানে একটি শিশুকে বন্যার পানিতে অর্ধ নিমজ্জিত অবস্থায় দেখা যায়। এরপর সেই শিশুর একটি ভিডিও ভাইরাল হয়, যেখানে তাকে পানির মধ্যে হাত নেড়ে সাহায্যের জন্য আহ্বান জানাতে দেখা যায়। এই ছবিটি দেশের বিভিন্ন অঙ্গনের জনপ্রিয় ব্যক্তিত্ব, রাজনৈতিক দল এবং গণমাধ্যমে ব্যাপকভাবে প্রচারিত হয়েছে। এমনকি ছবিটি ফান্ড কালেকশনের লিফলেট এবং বিভিন্ন সেচ্ছাসেবী সংগঠনের প্রচারণায়ও ব্যবহৃত হয়েছে।
উক্ত ছবিসহ ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ) এবং এখানে (আর্কাইভ)।
এক্সে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ)।
উক্ত ভিডিওসহ ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ) এবং এখানে (আর্কাইভ)।
ফ্যাক্টচেক
রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা গেছে, সাম্প্রতিক বন্যার প্রেক্ষাপটে ভাইরাল হওয়া শিশুর আলোচিত ছবি ও ভিডিওটি বাস্তব নয় বরং, এগুলো কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবহার করে তৈরি করা হয়েছে।
প্রাথমিকভাবে, রিউমর স্ক্যানার টিম ছবিটির ফটোগ্রাফার খুঁজে বের করার চেষ্টা করে। সাধারণত, এমন দুর্যোগের ছবি ফটোগ্রাফারের নামসহ প্রকাশিত হয়, কিন্তু এই ছবির ক্ষেত্রে কোনো ফটোগ্রাফারের নাম খুঁজে পাওয়া যায়নি।
এরপর ছবিটি গভীরভাবে পর্যবেক্ষণ করে রিউমর স্ক্যানার টিম। পর্যবেক্ষণে দেখা যায়, ছবিটির আলোর প্রতিফলন, শিশুটির চোখের অভিব্যক্তি, কপালের ভাঁজ এবং ঠোঁটের অস্বাভাবিকতা—এসবের মধ্যে কিছু অসংগতি রয়েছে, যা কৃত্রিম বুদ্ধিমত্তা বা এআই দ্বারা তৈরি ছবিতে সাধারণত লক্ষ্য করা যায়।
এই ধরনের অসংগতি দেখা দেওয়ায় ছবিটি যাচাই করার জন্য বিভিন্ন কৃত্রিম বুদ্ধিমত্তা শনাক্তকরণ ওয়েবসাইটের সাহায্য নেওয়া হয়। ওয়েবসাইটগুলোর বিশ্লেষণে ছবিটি এআই দ্বারা তৈরি হওয়ার সম্ভাবনা ৬০% থেকে ৯১% পর্যন্ত ফলাফল দিয়েছে।
এ বিষয়ে আরও নিশ্চিত হতে রিউমর স্ক্যানার টিম মিডজার্নি নামক এআই-ভিত্তিক ইমেজ জেনারেশন টুল ব্যবহার করে একই ধরনের ছবি পুনরায় তৈরি করার চেষ্টায়ও কাছাকাছি ফলাফল পেয়েছে রিউমর স্ক্যানার টিম।
অর্থাৎ, বন্যার পানিতে অর্ধ নিমজ্জিত অবস্থায় থাকা শিশুর ভাইরাল ছবিটি এআই প্রযুক্তি ব্যবহার করে তৈরি হয়েছে।
ছবিটি এআই দিয়ে তৈরি নিশ্চিত হওয়ার পর একই শিশুর ভাইরাল ভিডিওটি পর্যবেক্ষণেও কিছু অসংগতি ধরা পড়ে, যা সাধারণত এআই দিয়ে তৈরি ভিডিওতে দেখা যায়। উদাহরণস্বরূপ, ভিডিওটির কিছু ফ্রেমে হঠাৎ করে চেহারা বা পটভূমির অস্বাভাবিক পরিবর্তন দেখা যায়। এছাড়া, কিছু অংশে আলোর মাত্রা অস্বাভাবিকভাবে কমে-বাড়ে এবং ভিডিওটির কিছু অংশে ফ্লিকারিং বা ঝিকিমিকির মতো সমস্যা দেখা যায়।
এআই-ভিত্তিক মিডিয়া কন্টেন্ট শনাক্তকরণের জন্য ট্রুমিডিয়া ওয়েবসাইটের বিশ্লেষণেও এই তথ্যটি উঠে এসেছে।
এছাড়া, ভাইরাল ভিডিওতে দেখতে পাওয়া ‘Kalachan Miya’ নামের জলছাপের সূত্রে একটি ফেসবুক পেজ খুঁজে পাওয়া যায়। পেজটি থেকে ২২ আগস্ট প্রচারিত ভিডিওটির ক্যাপশনে স্পষ্টভাবে উল্লেখ করা হয়েছে যে, ভিডিওটি প্রতীকী হিসেবে এআই প্রযুক্তি ব্যবহার করে তৈরি করা হয়েছে।
অর্থাৎ, ভাইরাল ভিডিওটিও এআই দিয়ে তৈরি।
সুতরাং, চলমান বন্যার প্রেক্ষাপটে এআই বা কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি ব্যবহার করে তৈরি একটি শিশুর ছবি ও ভিডিও বাস্তব ঘটনা হিসাবে প্রচার করা হচ্ছে, যা মিথ্যা।
তথ্যসূত্র
- Rumor Scanner’s own analysis.
- Video Analysis by Truemedia.
- Hive Moderation
|