یادگیری-ماشین-شبکه‌های-عصبی

یادگیری ماشینی: فراتر از دنیای دیجیتال

خیلی راحت میشه یادگیری ماشین رو صرفاً یه پدیده‌ی کاملاً دیجیتالی دونست؛ چیزی که فقط با کمک کامپیوترها و الگوریتم‌هایی که می‌تونن رفتارای مغز رو تقلید کنن، کار می‌کنه. اما ماشین‌های اولیه کلاً *آنالوگ* بودن و حالا، ***یه مجموعه کوچیک ولی رو به رشد*** از تحقیقات نشون می‌ده که سیستم‌های مکانیکی هم می‌تونن «یاد بگیرن». فیزیک‌دان‌های دانشگاه میشیگان آخرین یافته‌هاشون رو تو این زمینه ارائه دادن.

تیم دانشگاه میشیگان، تحت رهبری شوافیفنگ لی و شیائومینگ مائو، الگوریتمی رو طراحی کردن که ***چارچوب ریاضی*** رو برای نحوه‌ی یادگیری تو شبکه‌های عصبی مکانیکی، که بهشون «لتیس» می‌گن، فراهم می‌کنه. لی گفت: «ما داریم می‌بینیم که مواد می‌تونن به تنهایی یه سری کارها رو یاد بگیرن و محاسباتی انجام بدن.» محقق‌ها نشون دادن که چطور میشه از این الگوریتم برای «آموزش» دادن به مواد استفاده کرد، مثلاً برای حل مسائلی مثل ***شناسایی انواع مختلف*** گل‌های زنبق. یه روزی، این مواد می‌تونن ساختارهایی رو درست کنن که قادر به حل مسائل پیشرفته‌تری باشن، مثل ***بال‌های هواپیما*** که شکلشون رو با توجه به شرایط باد، بهینه می‌کنن، بدون این‌که نیاز به دخالت آدم‌ها یا کامپیوترها باشه.

این آینده هنوز خیلی دوره، ولی به گفته‌ی لی، این بینش‌های جدید که از تحقیقات دانشگاه میشیگان به دست اومده، می‌تونه الهام‌بخش فوری‌تری برای محقق‌ها، خارج از این حوزه باشه. این الگوریتم بر اساس یه رویکرد به اسم «بازپراکندگی» طراحی شده که قبلاً تو سیستم‌های دیجیتال و اپتیکی برای ***یادگیری*** استفاده می‌شده. به گفته‌ی محقق‌ها، این الگوریتم، به خاطر ***بی‌توجهی نسبی‌اش*** به نحوه‌ی انتقال اطلاعات، می‌تونه به کشف‌های جدیدی درباره‌ی این‌که سیستم‌های زنده چطور یاد می‌گیرن، کمک کنه.

لی اضافه کرد: «ما داریم موفقیت نظریه‌ی بازپراکندگی رو تو خیلی از سیستم‌های فیزیکی می‌بینیم. فکر می‌کنم این موضوع می‌تونه به زیست‌شناس‌ها کمک کنه تا درک بهتری از نحوه‌ی کار شبکه‌های عصبی بیولوژیکی تو انسان‌ها و بقیه جانداران پیدا کنن.» لی و مائو، که استادهای دپارتمان فیزیک دانشگاه میشیگان هستن، مطالعه‌ی جدیدشون رو تو مجله‌ی Nature Communications منتشر کردن.

آزمایشگاهی مدرن و پیشرفته با محققان که در حال بررسی شبکه‌های عصبی مکانیکی و الگوریتم‌های یادگیری هستند.
تحقیق روی نشانه‌ها و الگوریتم‌های یادگیری ماشین، توی آزمایشگاه دانشگاه میشیگان.

اصول شبکه‌های عصبی مکانیکی (MNNs)

ایده‌ی استفاده از اشیاء فیزیکی برای انجام محاسبات، سال‌هاست که وجود داره. اما تمرکز رو ***شبکه‌های عصبی مکانیکی*** یه چیز جدیدتره و همزمان با پیشرفت‌های اخیر تو ***هوش مصنوعی***، علاقه‌مندی بهش هم بیشتر شده. بیشتر این پیشرفت‌ها، و به‌خصوص اونایی که خیلی دیده می‌شن، تو حوزه‌ی فناوری کامپیوتر بودن. صدها میلیون نفر، هر هفته، از چت‌بات‌های مبتنی بر هوش مصنوعی، مثل ChatGPT، استفاده می‌کنن تا تو نوشتن ایمیل‌ها، برنامه‌ریزی سفرها و کارهای دیگه کمک بگیرن. این دستیارهای هوش مصنوعی، بر اساس شبکه‌های عصبی مصنوعی طراحی شدن.

با این‌که عملکردشون پیچیده است و معمولاً از دید پنهانه، لی گفت که اینا یه مقایسه‌ی خوب رو برای درک شبکه‌های عصبی مکانیکی فراهم می‌کنن. وقتی یه کاربر از چت‌بات استفاده می‌کنه، یه دستور یا سؤال رو وارد می‌کنه که توسط یه الگوریتم شبکه عصبی که روی یه شبکه‌ی کامپیوتری با قدرت پردازش بالا اجرا میشه، تفسیر میشه. سیستم، بر اساس تجربه‌ای که از مواجهه با حجم زیادی از داده‌ها به دست آورده، یه جوابی رو تولید می‌کنه که روی صفحه‌ی نمایش کاربر نشون داده میشه.

یه شبکه‌ی عصبی مکانیکی (MNN) هم همین عناصر اصلی رو داره. تو مطالعه‌ی لی و مائو، ورودی، یه وزنه بود که به یه ماده وصل شده بود و به‌عنوان سیستم پردازش عمل می‌کرد. خروجی، تغییر شکل ماده به دلیل وزنه‌ای بود که بهش وارد می‌شد. لی گفت: «نیرو، اطلاعات ورودی هست و خود ماده مثل یه پردازنده کار می‌کنه و تغییر شکل ماده هم خروجی یا همون جواب هست.»

تو این مطالعه، مواد «پردازنده» شامل لتیس‌های سه‌بعدی چاپ شده از جنس لاستیک بودن که از مثلث‌های کوچکی تشکیل شده بودن و شکل‌های بزرگتری مثل ذوزنقه رو می‌ساختن. این مواد با تنظیم میزان سفتی یا انعطاف‌پذیری بخش‌های خاصی از اون لتیس، یاد می‌گیرن.

تصویری هنری از ساختارهای لتیس سه‌بعدی از جنس لاستیک که به عنوان شبکه‌های عصبی مکانیکی مورد استفاده قرار می‌گیرند.
نمایش لتیس‌های سه‌بعدی که سیستم‌های پردازشی تو یادگیری ماشین رو نشون میدن.

رسیدن به کاربردهای آینده‌نگر با شبکه‌های مواد هوشمند

برای این‌که بتونیم به کاربردهای آینده‌نگر مثل بال‌های هواپیما که خودشون رو تنظیم می‌کنن، برسیم، شبکه‌های مواد هوشمند (MNNs) باید بتونن این بخش‌ها رو به‌طور مستقل تنظیم کنن. تو حال حاضر، مواد مناسب برای این کار، دارن بررسی می‌شن، ولی هنوز نمی‌شه اونا رو از یه کاتالوگ سفارش داد. برای همین، لی با چاپ کردن نسخه‌های جدیدی از یه پردازنده با بخش‌های ضخیم‌تر یا نازک‌تر، این رفتار رو مدل‌سازی کرد تا جواب مطلوب رو به دست بیاره. مهم‌ترین دستاورد کار لی و مائو، اون الگوریتمی هست که به یه ماده یاد میده چطوری این بخش‌ها رو تنظیم کنه.

چطوری شبکه‌های مواد هوشمند رو آموزش بدیم

با این‌که ریاضیات پشت نظریه‌ی پس‌انتشار (backpropagation) پیچیده است، اما خود ایده خیلی بدیهی هست. لی گفت: «برای شروع این فرآیند، باید بدونید ورودی شما چیه و می‌خواید سیستم چطوری جواب بده. بعد، ورودی رو اعمال می‌کنید و می‌بینید که جواب واقعی چقدر با اون چیزی که می‌خواید، فرق داره. بعدش، شبکه این تفاوت رو می‌گیره و ازش برای این‌که بدونه چطوری باید خودش رو تغییر بده استفاده می‌کنه تا تو مراحل بعدی به خروجی مطلوب نزدیک‌تر بشه.»

علم‌دانی در حال تعامل با سیستم‌های کامپیوتری و دوربین‌ها، در حال نظارت بر تغییر شکل مواد تحت وزن‌های مختلف.
تحلیل تغییرات مواد در حال یادگیری، توسط علم‌دان در حال بررسی.

از نظر ریاضی، تفاوت بین خروجی واقعی و خروجی مطلوب به تابع زیان (loss function) مربوط میشه. با اعمال یه عملگر ریاضی به اسم گرادیان (gradient) به این تابع زیان، شبکه یاد می‌گیره که چطوری تغییر کنه. لی نشون داد که اگه بدونید دنبال چی هستید، MNNهای اون این اطلاعات رو بهتون میدن. اون گفت: «این شبکه می‌تونه به‌طور خودکار گرادیان رو به شما نشون بده» و اضافه کرد که تو این مطالعه، از دوربین‌ها و کدهای کامپیوتری هم کمک گرفتن. «این واقعاً راحته و خیلی کارآمده.»

به‌عنوان مثال، فرض کنید یه شبکه از بخش‌هایی با ضخامت و سختی یکسان تشکیل شده. اگه یه وزنه از یه گره‌ی مرکزی آویزون کنید – نقطه‌ای که بخش‌ها به هم وصل می‌شن – گره‌های همسایه تو سمت چپ و راست، به یه اندازه پایین می‌رن، چون سیستم متقارنه. اما فرض کنید می‌خواید یه شبکه‌ای بسازید که نه تنها یه جواب نامتقارن به دست بیاره، بلکه بیشترین میزان جواب نامتقارن رو بده. به عبارت دیگه، می‌خواید یه شبکه‌ای بسازید که حداکثر تفاوت در حرکت رو بین یه گره در سمت چپ وزنه و یه گره در سمت راستش ارائه کنه. لی و مائو از الگوریتمشون و یه تنظیم آزمایشی ساده استفاده کردن تا یه شبکه‌ای رو بسازن که این راه‌حل رو ارائه میده. (یه شباهت دیگه به زیست‌شناسی هم اینه که این رویکرد فقط به اون چیزی که اتصالات نزدیک انجام می‌دن اهمیت میده، درست مثل نحوه عملکرد نورون‌ها، لی گفت.)

با یه قدم جلوتر، محقق‌ها همچنین مجموعه‌های داده‌ی بزرگی از نیروهای ورودی رو ارائه دادن، مثل کاری که تو یادگیری ماشین روی کامپیوترها انجام می‌شه، تا به MNNهای خودشون آموزش بدن. تو یکی از این مثال‌ها، نیروهای ورودی مختلف، با اندازه‌های متفاوتی از گلبرگ‌ها و برگ‌ها تو گل‌های زنبق تطابق داشتن که ویژگی‌های تعیین‌کننده‌ای هستن که به تفکیک انواع کمک می‌کنن. بعدش لی تونست یه گل با نوع ناشناخته رو به شبکه آموزش‌دیده بده و اون رو به‌درستی طبقه‌بندی کنه.

لی در حال حاضر داره روی پیچیده‌تر کردن سیستم و مسائلی که می‌تونه با استفاده از MNNهایی که امواج صوتی رو حمل می‌کنن، حل کنه، کار می‌کنه. اون گفت: «ما می‌تونیم اطلاعات خیلی بیشتری رو تو ورودی کدگذاری کنیم. با امواج صوتی، شما دامنه، فرکانس و فاز دارید که می‌تونه داده‌ها رو کدگذاری کنه.» همزمان، تیم دانشگاه میشیگان همچنین در حال مطالعه‌ی کلاس‌های وسیع‌تری از شبکه‌ها تو مواد، از جمله پلیمرها و تجمع‌های نانوذره‌ای هست. با این مواد، می‌تونن سیستم‌های جدیدی رو بسازن که بتونن الگوریتمشون رو اعمال کنن و به سمت رسیدن به ماشین‌های یادگیری کاملاً خودکار حرکت کنن. این کار توسط دفتر تحقیقات دریایی و مرکز علوم ملی بنیاد ملی علوم برای سیستم‌های ذرات پیچیده، یا COMPASS، پشتیبانی می‌شه.

“`

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *