در این مقاله نگاهی به Deepfakeهای صوتی خواهیم داشت.
به گزارش کالاسودا و به نقل از How-To-Geek، ویدیوهای Deepfake امروزی نشان میدهند که شما نمیتوانید به آسانی به چشمان خود اعتماد کنید.
اکنون Deepfakeهای صوتی پتانسیل این را دارند که شما دیگر نمیتوانید به هیچ چیز اعتماد کنید.
آیا این ویدیو از رئیس جمهور کشورتان که اعلام جنگ با کشور همسایه را داد، واقعی است؟
آیا این پدرتان است که پشت تلفن از شما میخواهد رمز عبور کارت بانکیتان را برایش بخوانید؟
این موضوع به سادگی نشان میدهد که پیشرفت تکنولوژی با تمام مزایای خود، تا چه اندازه میتواند مخرب باشد.
شاید تا 50 سال پیش تنها نگرانیهای حاصل از تکنولوژی، سلاحهای اتمی و ابزارهای جاسوسی بودند.
با این حال امروزه ما با تحدیدات بسیار جدی تر و متنوع تری مواجه هستیم.
پس از ویدیوهای Deepfake، اکنون نوبت به Deepfakeهای صوتی رسیده است.
Resemble AI، یکی از شرکتهای فعال در زمینهی توسعهی این تکنولوژی است.
زهیب احمد، مدیر عامل Resemble AI، محصول شرکت خود را همانند یک فتوشاپ برای صوت مینامد.
با این حال مشکل اینجاست که تشخیص تصاویر فتوشاپ شده از واقعی، معمولا بسیار ساده است.
این در حالی است که آمار نشان میدهد دقت تشخیص Deepfakeهای صوتی از ترکهای صدای واقعی توسط کارشناسان خبره، تنها در حدود 57% است.
شاید انتظارش را نداشته باشید، اما امروزه تقاضا برای اصوات مصنوعی، بسیار بالاست.
این اصوات در بسیاری صنایع نظیر بازیهای ویدیویی و فیلمها، بسیار کاربردی هستند.
یکی از مشکلات صداگذاری کلاسیک در بازیها، محدودیت بیش از حد آنهاست.
این موضوع با دیالوگهای تکراری حتی در بسیاری از بازیهای امروزی، کاملا مشهود است.
صداهای مصنوعی به ما اجازه میدهند که به سرعت و سادگی به یک محصول، محتوا اضافه کنیم.
علاوه بر این، این صداها در بخش پشتیبانی کمپانیها و همچنین تبلیغات نیز کاربرد دارند.
کمپانیهای فعال در این زمینه همچنین از پتانسیل این تکنولوژی در زمینههای پزشکی میگویند.
شرکتهایی نظیر Resemble AI و Descript، از جمله معدود شرکتهای فعال در این زمینه هستند.
این شرکتها حتی دموی سرویسهای خود را به صورت رایگان در معرض استفادهی عموم قرار داده اند.
این تکنولوژی از هوشمند مصنوعی و الگوریتمهای یادگیری برای آنالیز و شبیه سازی صداها استفاده میکند.
توسعه دهندگان این تکنولوژی در گذشته از بانکهای حجیم صدا برای آموزش هوش مصنوعی خود استفاده میکنند.
با این حال به مرور زمان، این پیش نیازها کاهش یافته و این تکنولوژی به طور کل متحول شد.
این تکنولوژی به لطف تحقیقات گوناگون دانشگاهی و کار دانشمندان به اینجا رسیده است.
امروزه نیازی به حجم زیادی از دادهها برای شبیه سازی صدای یک شخص نیست.
شما میتوانید صدای شخصی را تنها با چند دقیقه محتوا، شبیه سازی کنید.
همانند تکنولوژیهای دیگر نظیر انرژی اتمی، نانوتک و پرینت 3 بعدی، این تکنولوژی همزمان بسیار جذاب و بسیار ترسناک است.
هر چه باشد با پیشرفت این تکنولوژی، ما دیگر امکان اعتماد به گوشهای خود را نخواهیم داشت.
در حال حاضر شما میتوانید Deepfakeهای صوتی بسیاری شخصیتهای سیاسی نظیر کلینتون، اوباما و ریگان را در سطح YouTube پیدا کنید.
این Deepfakeها در حال حاضر صدای چندان طبیعی ندارند.
با این حال کسی چه میداند پیشرفت این تکنولوژی چه زمان این نواقص را برطرف خواهد کرد.
در حال حاضر تمام کمپانیهای فعال در این زمینه نظیر Resemble AI، قوانین سفت و سختی برای پاکیزه نگه داشتن این تکنولوژی دارند.
دقت کنید که حتی پیش از توسعهی این تکنولوژی، مجرمان با روشهای قدیمی همواره سعی در جای زدن خود به جای افراد دیگر داشته اند.
مجرمان در آن زمان با دستکاری فرکانسهای صدای خود، سعی در جای زدن خود به جای افراد دیگر میکردند.
از این نظر، کارشناسان امنیتی قبلا هم با موقعیتهای مشابه الان، روبرو شده اند.
با این حال Deepfakeهای صوتی بدون شک بسیار باور پذیر تر از روشهای قدیمی به نظر خواهند رسید.
چیزی که مشخص است این است که این تکنولوژی روز به روز بهتر خواهد شد.
با این حال حتی اگر انسانها نیز قادر به تشخیص این Deepfakeها نباشند، کامپیوترها قادر به شناسایی آنها با استفاده از الگوریتمهای موجود خواهند بود.
بسیاری از کمپانیها در حال حاضر در حال نصب سیستمهای تشخیص Deepfake روی سیستمهای خود هستند.
با این حال مثل هر مورد دیگری، آگاهی و آمادگی حرف اول را میزند.
لینک کوتاه: