کد خبر: 4276113
تاریخ انتشار : ۲۴ فروردين ۱۴۰۴ - ۱۱:۳۶

سانسور هدفمند پست‌های حمایت از فلسطین در فیسبوک و اینستاگرام

اسناد نشان می‌دهد که شرکت متا پست‌های انتقادی از رژیم صهیونیستی در فیسبوک و اینستاگرام را به‌طور گسترده و هدفمند حذف می‌کند.

به گزارش ایکنا به نقل از عربی 21، رژیم صهیونیستی سرکوب همه جانبه‌ای را علیه پست‌های اینستاگرامی و فیسبوکی که از این رژیم انتقاد می‌کنند یا در تأیید آرمان فلسطین هستند آغاز کرده است. آمار نشان می‌دهد که شرکت آمریکایی متا، مالک فیسبوک و اینستاگرام از 7 اکتبر 2023 با 94 درصد درخواست‌های حذف این مطالب از سوی رژیم صهیونیستی موافقت کرده است.

اسرائیل بزرگترین منبع درخواست حذف این پست‌ها در سطح جهان است و متا نیز از آن پیروی کرده و دامنه پست‌هایی را که به‌طور خودکار حذف می‌کند گسترش داده است. این شرکت، پدیده‌ای را به وجود آورده است که می‌توان آن را بزرگترین عملیات سانسور جمعی در تاریخ مدرن نامید.
 
بر اساس داده‌های داخلی متا که توسط DropSite News به دست آمده است، افراد آشنا با داده‌های متا می‌گویند که درخواست‌های حذف از سوی دولت‌ها عموماً روی پست‌هایی متمرکز است که از سوی شهروندان آن کشورها منتشر می‌شود. آنچه کمپین اسرائیل را منحصر به فرد می‌کند، سانسور پست‌های کاربران در کشورهای خارج از سرزمین‌های اشغالی است.
 
علاوه بر این، منابع مطلع می‌گویند که پروژه سانسور اسرائیل در آینده ادامه خواهد داشت، زیرا برنامه هوش مصنوعی که در حال حاضر در مورد نحوه سانسور محتوا آموزش می‌بیند، در آینده روش کار خود را بر اساس حذف موفقیت آمیز محتوای منتقد نسل‌کشی اسرائیل استوار خواهد کرد.
 
درخواست‌های حذف، به افراد، سازمان‌ها و مقامات دولتی این امکان را می‌دهد که درخواست حذف محتوایی را بدهند که ادعا می‌شود خط‌مشی‌های متا را نقض می‌کند و اسناد نشان می‌دهد که اکثریت قریب به اتفاق درخواست‌های اسرائیل (۹۵ درصد) از سوی متا در دسته‌های «تروریسم» یا «خشونت و تحریک» قرار می‌گیرند.
 
درخواست‌های اسرائیل عمدتاً کاربران کشورهای عرب و با اکثریت مسلمان را در تلاش گسترده برای خاموش کردن انتقادات از اسرائیل هدف قرار داده است.
 
چندین منبع مستقل در متا اطلاعات ارائه شده توسط افشاگران را تأیید کرده‌اند؛ داده‌ها همچنین نشان می‌دهد که متا بیش از 90000 پست را با درخواست دولت اسرائیل حذف کرده است.
 
متا همچنین از 7 اکتبر به طور قابل توجهی حذف خودکار را گسترش داده است که منجر به اقدام بر روی 38.8 میلیون پست در فیسبوک و اینستاگرام از اواخر سال 2023 شده است. در اصطلاح فیسبوک، اقدام به این معنی است که پست حذف، مسدود یا سانسور شده است.
 
بر اساس اطلاعات فاش شده، تمام درخواست‌های «گزارش‌دهی تروریسم» که توسط رژیم اسرائیل پس از 7 اکتبر صادر شده بدون توجه به محتوای اصلی مورد بحث، حاوی متن مشابهی است. منابع گزارش دادند که حتی یک درخواست اسرائیلی ماهیت محتوای گزارش شده را دقیقاً شرح نداده است.
 
سیستم پردازش محتوای متا، بسته به نهاد گزارش‌دهنده، گزارش‌های ارسال شده توسط کاربران را از طریق کانال‌های مختلف پردازش می‌کند. کاربران عادی می‌توانند از طریق بخش گزارش‌دهی داخلی پلتفرم، پست‌ها را گزارش کنند که بازبینی را آغاز می‌کند. 
 
دولت‌ها و سازما‌ن‌ها، کانال‌های اختصاصی برای شروع بررسی محتوا دارند. گزارش‌هایی که از طریق این کانال‌ها ارسال می‌شوند اولویت بیشتری دارند و اغلب توسط ناظران انسانی به جای هوش مصنوعی بررسی می‌شوند. پس از بررسی گزارش‌ها، آنها به سیستم هوش مصنوعی متا بازگردانده می‌شوند تا به ارزیابی بهتر محتوای مشابه در آینده کمک کنند. 
 
به گفته افشاگران، متا اکثریت درخواست‌های اسرائیل را پذیرفته و با حذف پست‌ها بدون بررسی انسانی، مطالب را حذف کرده و این داده‌ها را دوباره در سیستم هوش مصنوعی متا وارد کرده است.
 
گزارش دیده‌بان حقوق بشر در مورد نظارت متا بر محتوای طرفدار فلسطین پس از 7 اکتبر و جنگ غزه نشان داد که از 1050 پستی که در فیس‌بوک یا اینستاگرام حذف یا مسدود شده است، 1049 پست حاوی محتوای صلح‌آمیز طرفدار فلسطین بوده است، در حالی که تنها یک پست حاوی محتوای طرفدار اسرائیل بوده است.
 
یک منبع در بخش صداقت متا تأیید کرد که بررسی‌های داخلی مکانیسم تعدیل خودکار آن نشان می‌دهد که محتوای طرفدار فلسطین که خط‌مشی‌های متا را نقض نمی‌کند، بارها حذف می‌شود.
انتهای پیام
captcha