تحقیقات نشان میدهد که فیسبوک از اوایل سال 2019 در سیستم جدیدِ حذفِ خودکار اکانت اینستاگرام، تحقیقات نژادپرستانه را نادیده گرفته و به کارمندان گفته که یافتهها را مخفی نگه دارند.
به گزارش کالاسودا و به نقل از techtimes، طبق مقاله NBC News در روز پنجشنبه 23 جولای، در اواسط سال 2019، محققان اینستاگرام متعلق به فیس بوک دریافتند که در سیستم جدید؛ احتمال غیرفعال شدنِ حسابهای متعلق به سیاهپوستان، 50 درصد بیشتر از افراد سفید است. این سیستم جدید که برای حذف اکانت های مشکل ساز و زورگویی طراحی شده و در سال 2019 در اینستاگرام معرفی و به کار گرفته شد؛ در واقعیت به گونهای عمل میکرد که حسابهای کاربری سیاه پوستان 50٪ بیشتر از سفیدپوستان غیرفعال شوند؛ و فیسبوک با علم بر این نقص، روی آن سرپوش گذاشته است.
به کارمندانی که این تحقیقات را انجام دادهاند، دستور داده شد که تحقیقات در مورد تعصبات نژادپرستانه در سیستم جدید را متوقف کرده و از صحبت کردن در مورد کمبودهای این سیستم خودداری کنند.
با استفاده از همین استاندارد، پستهای متنفرانه نسبت به گروههای حاشیه، از جمله کاربران سیاه، تراجنسیتی و یهودی به میزان کمتری حذف شد. این بدان معنی است که در حالی که برخی از پستها توهین آمیز به نظر میرسند، ابزارهای خودکار فیس بوک آن را شناسایی نمیکردند.
پاسخ فیس بوک به این گزارش
فیس بوک ادعا کرد که محققان از یک روش نادرست استفاده میکنند. با این حال، فیسبوک این ادعا را رد نکرد.
فیس بوک اعلام کرد که در حال حاضر به دنبال روشهای بهتری برای آزمایش شبکههای خود در راستای تعصب نژادی است.
شولتز در مصاحبه خود با NBC گفت كه تعصب نژادپرستانه در سیستم عاملهای فیس بوك “موضوعی بسیار مهمی” است، اما این شركت تا حد زیادی در زمینهی این تعصبات نژادپرستانه و اثرات آن در تعدیل گفتار، سرمایه گذاریهای بزرگی انجام داده است.
این شرکت در اوایل هفته جاری اعلام کرد تیمهای جدیدی را برای بررسی تأثیرات نژادپرستانه در برنامههای خود ایجاد کرده است.
این کارمندان مقایسه میکنند که چگونه کاربران سیاه پوست و اقلیت و همچنین کاربران سفید پوست تحت تأثیر الگوریتمهای فیس بوک و اینستاگرام قرار میگیرند.
لینک کوتاه: