اول از همه بهتر است بدانید ما نگران سرکشی این سیستمهای هوش مصنوعی و حملهٔ آنها علیه بشر نیستیم؛ این سیستمهای هوش مصنوعی در صورتی خطرناک هستند که توسط انسانهای بی وجدان استفاده شوند.
به گزارش کالاسودا و به نقل از venturebeat، این یک خطر واقعی است و ما آمادگی مقابله با آن را نداریم.
ای کاش چند سال دیگر زمان داشتیم تا بیشتر برای این خطرات خود را آماده میکردیم.
ChatGPT محبوبترین مدل زبان بزرگ (LLM) است. تنها در دو ماه به 100 میلیون کاربر دست یافته است. به طور مشابه پنج سال طول کشید تا توییتر به این تعداد کاربر برسد.
در این میان دو نوع خطر ما را تهدید میکند:
- خطرات مرتبط با سیستمهای هوش مصنوعی مولد که میتوانند محتوای انسانی تولید کنند و جایگزین شغلهای انسانی شوند.
- خطرات مرتبط با هوش مصنوعی مکالمهای که میتواند گفت و گوی انسانی داشته باشند و دیگران را فریب دهند.
امروزه سیستمهای هوش مصنوعی قادر به ایجاد محتوایی شدند که میتوانند به راحتی ما را فریب دهند و شرایطی ایجاد کنند تا باور کنیم که آنها انسان هستند یا فیلمها یا عکسهای واقعی هستند.
این خطرات مهم است؛ اما دلیلی نیست که ما برای هوش مصنوعی، درخواست تایم اوت داشته باشیم.
نگرانی مهمتر این است که محتوای تولید شده توسط هوش مصنوعی میتواند معتبر به نظر برسد؛ اما خطاهای واقعی داشته باشد.
خطر بزرگ دیگر این است که بازیگران بد، محتوای معیوب با خطاهای واقعی را به عنوان اطلاعات نادرست و دروغهای آشکار پخش میکنند.
این مشکل به دیپفیکها نیز تعمیم مییابد که پیش از این توانسته بود همه را فریب دهد.
خطرات مکالمه سیستمهای هوش مصنوعی
نوعی از هوش مصنوعی مولد قادر است به گفتگوی لحظهای از طریق چت متنی و چت صوتی بپردازد.
این فناوریها بیش از همه ما را نگران میکنند.
همانطور که میدانید، بهترین راه برای متقاعد کردن شخص برای خرید؛ مکالمه با اوست.
با انتشار GPT-4، کاملاً واضح است که سیستمهای هوش مصنوعی میتوانند با کاربران مکالمات واقعی در زمان واقعی داشته باشند.
ما نگران این هستم که اشخاصی که از APIها یا افزونهها استفاده میکنند، این مکالمات را به گونهای نشان دهند که واقعی هستند و افراد را ترغیب به خرید کنند.
لینک کوتاه: