خطرات استفاده از چت بات‌های هوش مصنوعی مانند ChatGPT در سازمان

0
73

از زمان راه‌اندازی ChatGPT در نوامبر ۲۰۲۲ میلیون‌ها کاربر به آن هجوم آورده‌اند.  چت بات هوش مصنوعی ChatGPT به دلیل قابلیت‌های تولید زبان مشابه با انسان، نرم‌افزار کدنویسی و تجزیه و تحلیل سریع متن، به عنوان یک ابزار پیشرو ظاهر شده است.

به گزارش کالاسودا و به نقل از  venturebeat، اما مانند هر فناوری مخرب، این چت بات‌ها مانند ChatGPT با خطرات زیادی همراه هستند.

به ویژه برای بازیگران اصلی صنعت فناوری، آژانس‌های اطلاعاتی دولتی و سایر نهادهای دولتی، این یک تهدید به حساب می‌آید.

در این راستا سازمان‌های آی تی برای کاهش خطرات امنیتی مدل‌های زبان بزرگ (LLM) و هوش مصنوعی محاوره‌ای (CAI) اقدام می‌کنند.

چندین سازمان تصمیم گرفته‌اند استفاده از ChatGPT را به طور کلی ممنوع کنند و برخی دیگر به کارکنانشان در مورد خطرات آن هشدار داده‌اند.

در این راستا، سه مورد نشت داده‌های حساس از طریق ChatGPT در یک ماه گزارش شده است.

به دنبال آن Walmart Global Tech، اقداماتی را برای کاهش خطر نقض داده‌ها اجرا می‌کند. این کمپانی  به کارکنان دستور داده تا ChatGPT را پس از شناسایی فعالیت مشکوک مسدود کنند.

همهٔ فن آوری‌های جدید مزایا و همچنین خطرات جدیدی را به همراه دارد.

بنابراین باید همانند موارد مشابه قبلی، این فناوری نیز ارزیابی شده و دستورالعمل‌هایی برای محافظت از داده‌های مشتریان، اعضا و همکاران ارائه شود.

شرکت‌های دیگری مانند Verizon و Accenture نیز اقداماتی را برای محدود کردن ChatGPT اتخاذ کرده‌اند.

هشدار دولت در مورد خطرات چت بات‌های هوش مصنوعی

در حالی که این مدل‌ها به دلیل قابلیت‌های زیاد پردازش زبان طبیعی مورد تحسین قرار گرفته اند، NCSC هشدار می‌دهد که خطا دارند و ممکن است دارای نقص‌های جدی باشند.

همانطور که در اولین نسخه چت بات Bard گوگل نشان داده شد؛ آنها می‌توانند تعصب داشته باشند، به ویژه در هنگام پاسخ دادن به سؤالات اصلی.

علاوه بر این، این مدل‌ها برای آموزش به منابع محاسباتی قابل‌توجه و مقادیر زیادی داده نیاز دارند و در برابر حملات و محتوای سمی آسیب‌پذیر هستند.

از آنجایی که کمپانی‌ها از هوش مصنوعی و سایر فناوری‌های نوظهور استقبال می‌کنند، اطمینان از روش‌های مناسب برای محافظت از داده‌های و جلوگیری از افشای ناخواسته اطلاعات بسیار اهمیت دارد.

اجرای کنترل‌های دسترسی از جمله احراز هویت چند عاملی و رمزگذاری داده‌های حساس می‌تواند به کاهش این خطرات کمک کند.

با ارائهٔ مزایای هوش مصنوعی مولد، مسئولیت‌ها و چالش‌های جدیدی ظاهر می‌شود و این به صنعت فناوری بستگی دارد که در کنار سیاست‌گذاران بایستد تا این فناوری به‌طور مسئولانه و اخلاقی توسعه و اجرایی شود.

 

عضویت
مطلع شدن از
guest
0 نظرات
Inline Feedbacks
نمایش همه دیدگاه ها