هوش مصنوعی چگونه واقعیت‌ها را به چالش می‌کشد؟

0
333

متأسفانه، وقتی که ضعف‌های فناوری هوش مصنوعی ظاهر شد، اطلاعات درست و حقیقت و اعتماد در جامعه به سرعت از بین رفت و واقعیت‌ها به چالش کشیده شد.

به گزارش کالاسودا و به نقل از venturebeat، بعد از  ChatGPT تعداد زیادی چت بات دیگر از مایکروسافت، گوگل، Tencent، Baidu، Snap، SK Telecom، Alibaba، Databricks، Anthropic، Stability Labs، متا و… به وجود آمدند که همگی نتایج متفاوتی را برای یک درخواست ارائه می‌دهند.

رویکردهای متا با آنتروپیک

آنتروپیک رویکرد متفاوتی در پیش گرفت. آنها یک “قانون اساسی” برای چت بات‌های خود اجرا کردند.  این قانون اساسی مجموعه‌ای از ارزش‌ها و اصول را مشخص می‌کند که کلود باید هنگام تعامل با کاربران از آنها پیروی کند.

متا همچنین مدل زبان بزرگ LLaMA 2 خود (LLM) را منتشر کرده است. که یک مدل توانمند و منبع باز است، به این معنی که هر کسی می‌تواند آن را به صورت رایگان استفاده کند.

به چالش کشیده شدن واقعیت‌ها با هوش مصنوعی

تحقیقات جدید نشان داد که به طور موثر بخش‌های محافظ هر یک از این مدل‌ها به راحتی شکسته می‌شوند، چه منبع بسته یا منبع باز.

یعنی هر کسی که بخواهد دستورالعمل‌هایی برای نحوه ساخت سلاح‌های زیستی یا کلاهبرداری دریافت کند، می‌تواند این را از LLM‌های مختلف دریافت کند.

علاوه بر این، نتایج متفاوت از مدل‌های متعدد، حتی زمانی که به یک درخواست پاسخ می‌دهند، در حال افزایش است. یک جهان تکه تکه شده هوش مصنوعی که نمی‌توان به آن اعتماد کرد.

حقیقت و اعتماد خیلی وقت است که مورد حمله قرار گرفته و این روند ادامه خواهد داشت.

عضویت
مطلع شدن از
guest
0 نظرات
Inline Feedbacks
نمایش همه دیدگاه ها