تهدیدات امنیتی با به کارگیری مصنوعی مولد ChatGPT

0
138

آیا هوش مصنوعی مولد برای تیم‌های امنیتی کاربردی است؟ از زمان ارائهٔ ChatGPT ، بحث‌های زیادی در مورد اینکه آیا هوش مصنوعی مولد امنیت را از بین می‌برد یا نه، وجود داشته است.

به گزارش کالاسودا و به نقل از venturebeat، از نظر دیوید ریبر،فسر ارشد امنیتی انویدیا، این یک بازی موش و گربه است.

یک جنگ هوش مصنوعی تهاجمی در جریان است که در آن هم مجرمان سایبری می‌توانند از فناوری‌هایی مانند هوش مصنوعی مولد برای تولید کدهای مخرب استفاده کنند، و هم تیم‌های امنیتی می‌توانند از آن برای شناسایی آسیب پذیری‌ها استفاده کنند.

اخیراً، VentureBeat یک مصاحبه با دیوید ریبر، افسر ارشد امنیتی انویدیا انجام داد.

او نظرات خود را در مورد تأثیر هوش مصنوعی مولد و ابزارهایی مانند ChatGPT بر چشم انداز تهدید در سال 2023 اعلام کرد.

VB: چرا برای متوقف کردن تهدیدات سایبری مبتنی بر هوش مصنوعی به هوش مصنوعی نیاز است؟

Reber: یکی از محدودیت‌های سنتی هکرها، طراحی حملات در مقیاس و دانش است.

با پیشرفت در هوش مصنوعی مولد، حملات دقیق و هدفمند با حداقل مهارت انجام می شود.

آنچه اهمیت دارد رقابت است. سرعت و پیچیدگی حملات از ظرفیت انسان پیشی می‌گیرد. اینجاست که هوش مصنوعی در هر دو جبهه قرار می‌گیرد.

در واقع این یک بازی موش و گربه است که برای همیشه وجود دارد.

VB: تیم‌های امنیتی هنگام استفاده از هوش مصنوعی در برابر هوش مصنوعی تهاجمی با چه چالش‌هایی روبرو هستند؟

دشمنان ما محدودیت‌های ما را درک می‌کنند: ظرفیت انسانی، مقررات، اولویت‌های رقابتی.

چالش اصلی هوش مصنوعی، اعتماد است.  ما یک ماشین خودران داریم، اما آیا به آن اعتماد داریم؟

بازار مملو از راه حل‌های خاص است. همه در تلاش هستند. با شرایط اقتصادی کنونی، همه ما باید راه‌هایی را برای انجام کارهای بیشتر با کمترین منابع پیدا کنیم.

ما باید یاد بگیریم چگونه از حریف پیشی بگیریم. اگر شما یکی از 14 میلیارد هستید، دانش خود را به اشتراک بگذارید.سعی کنید سریع‌تر از حریف حرکت کنید.

عضویت
مطلع شدن از
guest
0 نظرات
Inline Feedbacks
نمایش همه دیدگاه ها