آی بی ام بهتازگی روش جدیدی را با الهام از سیستمهای حسی حیوانات برای تولید کدهای هش ابداع کرده که به نظر کارآمدتر و بهینهتر از روشهای پیشین است.
به گزارش کالاسودا و به نقل از ونچربیت پژوهشگران مرکز تحقیقات IBM به کمک محققانی از چند موسسهی دیگر الگوریتمی را برای هشینگ دادهها با ابعاد بالا معرفی کردند که تأثیر زیادی بر بهبود عملکرد بسیاری از فرآیندها نظیر “جستجوی شباهت” دارد.
تا حالا راجع به FlyHash چیزی شنیدهاید؟ FlyHash یک الگوریتم الهام گرفته از سیستم بویایی مگس میوه است که کدهای هش-نمایش عددی اشیا- تولید میکند، با عملکردی بهتر از الگوریتمهای کلاسیک. متأسفانه FlyHash به دلیل استفاده از طرحهای تصادفی/Random، توانایی یادگیری از دادهها را ندارد.
برای غلبه بر این محدودیت، محققان دانشگاه پرینستون، دانشگاه سن دیگو، مرکز تحقیقات IBM و آزمایشگاه هوش مصنوعیِMIT-IBM Watson الگوریتم BioHash را توسعه دادند که از قوانین انعطافپذیری سیناپسی “محلی” و “بیولوژیکی” برای تولید کدهای هش استفاده میکند.
آنها معتقدند این روش عملکرد بهتری نسبت به معیارهایی که قبلاً برای متدهای مختلف هش منتشرشدهاند، دارد و میتواند نمایشهای باینری مفیدی را برای “جستجوی شباهت” ارائه دهد.
چنانکه محققان دربارهی جزئیات کار خود در مقاله ی تازه چاپشدهشان توضیح میدهند، پدیدهای که با عنوان “بازنمایی گسترده” شناخته میشود در عصبشناسی تقریباً همهگیر است. “گسترده” در این مطلب به نگاشت دادههای ورودی با ابعاد بالا به نمایش ثانویهای با ابعاد بیشتر اشاره دارد.
مثلاً در سیستم بویایی مگس میوه که در بالا به آنها اشاره شد، تقریباً 50 نورون فعالیت خودشان را به حدود 2500 سلول، که آنها را سلول کنیون مینامند، میرسانند یعنی گسترش تقریباً 50 برابر.
ازنقطهنظر محاسباتی، “گسترش” در میان چیزهای دیگر میتواند ظرفیت ذخیرهی حافظهی یک مدل هوش مصنوعی را افزایش دهد. همین موضوع انگیزهی طراحی الگوریتم BioHash را در تیم محققان ایجاد کرده است که میتواند در “جستجوی شباهت” نیز مورداستفاده قرار گیرد.
در جستجوی شباهت، یک جستار، یک معیار شباهت و یک پایگاه داده شامل تعدادی آیتم داده میشود و هدف، استخراج یک لیست مرتب از آیتمهای پایگاه داده است که بیشترین شباهت را به جستار دارند.
زمانی که ابعاد داده بالاست (برای مثال عکس یا مستندات) و پایگاه داده بزرگ است (شامل میلیونها یا بیلیونها آیتم)، این مسئله تبدیل به یک چالش محاسباتی میشود.
البته راهحلهای تقریبی، بهطورکلی قابلقبول هستند، الگوریتمهایی شامل یکرویهی هش که آن را هشِ حساس به محل (LHS) مینامیم، که در آن هر پایگاه داده با نمایش باینری رمزگذاری میشود و ورودیهای مرتب را استخراج میکند.
FlyHash مانند LHS ،BioHash را مجهز میکند با این تفاوت که BioHash سریعتر و مقیاسپذیرتر است.
پژوهشگران پس از تست BioHash روی پایگاه دادهی MNIST و CIFAR-10 اظهار کردند، BioHash بهترین عملکرد بازیابی را ازلحاظ سرعت نشان داده و بهطور چشمگیری مؤثرتر از سایر روشهاست. همچنین نسخهی اصلاحشدهی آن – BioConvHash- به خاطر الحاق فیلترهای مناسب، بهتر عمل میکند.
تیم تحقیق همچنین بیان کردند، این نتایج، شواهدی را ارائه میدهند که بر اساس آنها دلیل متداول بودن “بازنمایی گسترده” در موجودات زنده، اجرا کردن LHS است. به بیانی دیگر، آنها محرکهای مشابه را در یک دسته قرار میدهند و محرکهای متمایز را دور میکنند.
اینطور که پیداست، یادگیری ماشین و عصبشناسی ارتباط تنگاتنگی با هم دارند.
کمپانی Alphabet’s DeepMind که زیرمجموعه کمپانی گوگل است، اوایل این ماه یک مقاله منتشر کرده پیرامون بررسی اینکه مغز پاداشهای احتمالی آینده را نه بهعنوان یک میانگین واحد بلکه بهعنوان یک توزیع احتمال نشان میدهد، یک عملگر ریاضی که احتمال وقوع نتایج مختلف را فراهم میکند.
همچنین دانشمندان در گوگل و پژوهشکده عصبشناسی مکس پلانک، اخیراً یک شبکه عصبی مکرر-مدلی از الگوریتمهای یادگیری ماشین که در تشخیص گفتار و دست خط استفاده میشوند- را ارائه دادهاند که نورونهای مغز را نگاشت میکنند.
لینک کوتاه: