نادیده گرفتن فاکتور نژادپرستانه در الگوریتم اینستاگرام

0
1481

تحقیقات نشان می‌دهد که فیسبوک از اوایل سال 2019 در سیستم جدیدِ حذفِ خودکار اکانت اینستاگرام، تحقیقات نژادپرستانه را نادیده گرفته و به کارمندان گفته که یافته‌ها را مخفی نگه دارند.

به گزارش کالاسودا و به نقل از techtimes، طبق مقاله NBC News در روز پنجشنبه 23 جولای، در اواسط سال 2019، محققان اینستاگرام متعلق به فیس بوک دریافتند که در سیستم جدید؛  احتمال غیرفعال شدنِ حساب‌های متعلق به سیاهپوستان، 50 درصد بیشتر از افراد سفید است. این سیستم جدید که برای حذف اکانت های مشکل ساز و زورگویی طراحی شده و در سال 2019 در اینستاگرام معرفی و به کار گرفته شد؛ در واقعیت به گونه‌ای عمل می‌کرد که حساب‌های کاربری سیاه پوستان 50٪ بیشتر از سفیدپوستان غیرفعال شوند؛ و فیسبوک با علم بر این نقص، روی آن سرپوش گذاشته است.

به کارمندانی که این تحقیقات را انجام داده‌اند، دستور داده شد که تحقیقات در مورد تعصبات نژادپرستانه در سیستم جدید را متوقف کرده و از صحبت کردن در مورد کمبودهای این سیستم خودداری کنند.

با استفاده از همین استاندارد، پست‌های متنفرانه نسبت به گروه‌های حاشیه، از جمله کاربران سیاه، تراجنسیتی و یهودی به میزان کمتری حذف شد. این بدان معنی است که در حالی که برخی از پست‌ها توهین آمیز به نظر می‌رسند، ابزارهای خودکار فیس بوک آن را شناسایی نمی‌کردند.

پاسخ فیس بوک به این گزارش

فیس بوک ادعا کرد که محققان از یک روش نادرست استفاده می‌کنند. با این حال، فیسبوک این ادعا را رد نکرد.

فیس بوک اعلام کرد که در حال حاضر به دنبال روش‌های بهتری برای آزمایش شبکه‌های خود در راستای تعصب نژادی است.

شولتز در مصاحبه خود با NBC گفت كه تعصب نژادپرستانه در سیستم عامل‌های فیس بوك “موضوعی بسیار مهمی” است، اما این شركت تا حد زیادی در زمینه‌ی این تعصبات نژادپرستانه و اثرات آن در تعدیل گفتار، سرمایه گذاری‌های بزرگی انجام داده است.

این شرکت در اوایل هفته جاری اعلام کرد تیم‌های جدیدی را برای بررسی تأثیرات نژادپرستانه در برنامه‌های خود ایجاد کرده است.

این کارمندان مقایسه می‌کنند که چگونه کاربران سیاه پوست و اقلیت و همچنین کاربران سفید پوست تحت تأثیر الگوریتم‌های فیس بوک و اینستاگرام قرار می‌گیرند.

 

عضویت
مطلع شدن از
guest
0 نظرات
Inline Feedbacks
نمایش همه دیدگاه ها