اهمیت و سرعت مسائل اخلاقی در هوش مصنوعی

به نظر می‌رسد هیچ چیز سرعت اخبار و بحث و گفت و گو در مورد مدل‌ها و تحقیقات هوش مصنوعی را متوقف نمی‌کند، حتی روز شکرگزاری در ایالات متحده.

به گزارش کالاسودا و به نقل از venturebeat، به عنوان مثال، زمانی که  Stable Diffusion 2.0  رونمایی شد، پایان روز 23 نوامبر بود؛ روزی که اکثر آمریکایی‌ها در سفر و تعطیلات بودند.

Stable Diffusion یک مدل یادگیری عمیق، متن به تصویر است که در سال 2022 منتشر شد. این مدل عمدتاً برای تولید تصاویر دقیق و مشروط به توضیحات متن استفاده می‌شود.

Stable Diffusion هیچ ادعای حقوقی بر روی تصاویر تولید شده ندارد و به طور رایگان به کاربران حق استفاده  را می‌دهد مشروط بر اینکه محتوای تصویر غیرقانونی یا مضر نباشد.

در حالی که ویژگی‌های جدیدی در Stable Diffusion 2.0 اعلام شد؛  برخی از کاربران از ناتوانی جدید در تولید تصاویر “ناامن برای کار” (NSFW) شکایت داشتند.

Stable Diffusion  قادر است تصاویر غیر اخلاقی و مستهجن و کودک آزاری را از داده‌های آموزشی حذف کند.

اما آیا تلاش‌های Stable Diffusion برای فیلتر کردن داده‌ها کافی است؟ آیا حذف داده‌های آموزشی NSFW به منزله «سانسور» است؟

اخبار Stable Diffusion تقریباً مصادف شد با آخرین اعلامیه تحقیقاتی هوش مصنوعی متا در مورد سیسرو.

CICERO ، اولین عامل هوش مصنوعی (AI) است که به عملکردی در سطح انسانی در بازی استراتژی محبوب دیپلماسی دست یافته است.

با این حال، سیسرو تاکنون فقط در این زمینه آموزش دیده و قادر به بازی Diplomacy است. در حالی  که کاربردهای آتی تکنیک‌های ایجاد شده برای سیسرو می‌تواند از ماشین‌های خودران گرفته تا ربات‌های خدمات مشتری را شامل شود و هنوز راه زیادی در پیش است.

نوام براون، نویسنده اصلی مقاله سیسرو و دانشمند پژوهشی در تحقیقات هوش مصنوعی بنیادی Meta AI (FAIR) تأکید کرد که سیسرو برای محصول خاصی در نظر گرفته نشده است.

براون در پروژه سیرو تاکید کرد که  اخلاق  برای آن‌ها اولویت است.

به همین دلیل است که ما داده‌ها، مدل‌ها را در دسترس جامعه دانشگاهی قرار می‌دهیم. این هسته اصلی چیزی است که FAIR (گروه تحقیقاتی هوش مصنوعی فیس بوک) به دنبال آن است.

با این حال، براون موافقت کرد که تحقیقات هوش مصنوعی به سرعت در حال پیشرفت است.

 

عضویت
مطلع شدن از
guest
0 Comments
Inline Feedbacks
نمایش همه دیدگاه ها