معرفی MovieNet: هوش مصنوعی نوین که انگار فیلم‌ هارو مثل مغز ما می‌فهمه

فکرش رو بکنید یه مدل هوش مصنوعی (AI) هست که می‌تونه فیلم‌ها رو با همون ظرافتی ببینه و درک کنه که ما آدم‌ها می‌کنیم. حالا، دانشمندا تو مؤسسه‌ی تحقیقاتی اسکریپس تونستن این آرزو رو به واقعیت تبدیل کنن و MovieNet رو ساختن: یه هوش مصنوعی خیلی باحال که ویدئوها رو جوری پردازش می‌کنه که انگار داره می‌بینه یه صحنه‌ی واقعی چطور داره جلو چشم‌مون تغییر می‌کنه. این هوش مصنوعی، که یه مطالعه‌ی مفصل در Proceedings of the National Academy of Sciences، تاریخ 19 نوامبر 2024 منتشر شده، می‌تونه صحنه‌های متحرک رو درست مثل نورون‌ها یا همون سلول‌های مغزی که دنیای واقعی رو درک می‌کنن، بفهمه.

هوش مصنوعی معمولی تو تشخیص عکس‌های ثابت خیلی خوبه، اما MovieNet یه راه‌حل جدید به مدل‌های یادگیری ماشینی نشون می‌ده که بهشون اجازه می‌ده صحنه‌های پیچیده و در حال تغییر رو هم تشخیص بدن. این یه پیشرفتیه که می‌تونه خیلی چیزا رو عوض کنه، از تشخیص‌های پزشکی گرفته تا ماشین‌های خودران، جایی که تشخیص تغییرات کوچیک تو طول زمان خیلی مهمه. MovieNet هم از نظر دقت و حفظ محیط زیست، از هوش مصنوعی‌های معمولی بهتره.

تحقیق و یافته‌ها

خانم هالیس کلاین، که نویسنده‌ی اصلی مقاله و مدیر مرکز علوم اعصاب دوریس در اسکریپسه، می‌گه: «مغز فقط عکسای ثابت رو نمی‌بینه؛ بلکه یه داستان تصویری پیوسته می‌سازه». اون ادامه می‌ده: «تشخیص عکس‌های ثابت پیشرفت‌های زیادی داشته، اما توانایی مغز برای پردازش صحنه‌های جاری – مثل دیدن یه فیلم – نیاز به یه مدل خیلی پیشرفته‌تر از شناسایی الگوها داره. با مطالعه‌ی اینکه چطور نورون‌ها این دنباله‌ها رو ضبط می‌کنن، ما تونستیم اصول مشابهی رو تو هوش مصنوعی پیاده کنیم».

برای ساختن MovieNet، کلاین و ماساکی هیراموتو، نویسنده‌ی اول مقاله و دانشمند ارشد در اسکریپس، بررسی کردن که مغز چطوری صحنه‌های دنیای واقعی رو به صورت یه سری کلیپ‌های کوتاه پردازش می‌کنه، مثل یه تیکه فیلم. به‌خصوص، محققا بررسی کردن که نورون‌های قورباغه‌های کوچیک چطوری به محرک‌های بینایی پاسخ می‌دن. هیراموتو توضیح می‌ده: «قورباغه‌ها سیستم بینایی خیلی خوبی دارن و ما می‌دونیم که می‌تونن محرک‌های متحرک رو به‌خوبی شناسایی و بهشون جواب بدن». اون و کلاین نورون‌هایی رو پیدا کردن که به ویژگی‌های فیلم – مثل تغییر نور و چرخیدن تصویر – جواب می‌دن و می‌تونن چیزها رو موقع حرکت و تغییر شناسایی کنن.

یه صحنه از یه آزمایشگاه مدرن که دانشمندا دارن الگوریتم‌های هوش مصنوعی رو بررسی می‌کنن و تصاویر متحرک رو نشون میده.
یه تصویر از روند تحقیق علمی تو آزمایشگاه که از هوش مصنوعی برای تجزیه و تحلیل تصاویر متحرک استفاده می‌شه.

این نورون‌ها، که تو قسمتی از مغز به اسم تکتوم اپتیک قرار دارن، تیکه‌های یه فیلم رو جمع می‌کنن و یه تصویر منسجم می‌سازن. این فرایند رو می‌شه به یه پازل مقایسه کرد: هر تیکه‌ی پازل به تنهایی شاید بی‌معنی باشه، اما با هم یه تصویر کامل و در حال حرکت رو می‌سازن. نورون‌های مختلف، تیکه‌های مختلف از یه «پازل» یه فیلم واقعی رو پردازش می‌کنن، که مغز بعداً اون‌ها رو به یه صحنه‌ی پیوسته تبدیل می‌کنه.

محققان همچنین فهمیدن که نورون‌های تکتوم اپتیک قورباغه‌ها تغییرات ریز در محرک‌های بینایی رو هم تو طول زمان تشخیص می‌دن و اطلاعات رو تو کلیپ‌های دینامیک حدود 100 تا 600 میلی‌ثانیه ضبط می‌کنن، نه عکس‌های ثابت. این نورون‌ها به الگوهای نور و سایه خیلی حساس هستن و جواب هر نورون به یه قسمت خاص از میدان دید به ساختن یه نقشه‌ی دقیق از یه صحنه کمک می‌کنه تا یه «کلیپ فیلم» ساخته بشه.

MovieNet چطور ساخته شد: هوش مصنوعی که مثل مغز کار می‌کنه

کلاین و هیرا موتو، MovieNet رو آموزش دادن تا پردازش مشابه مغز رو انجام بده و کلیپ‌های ویدئویی رو به یه سری نشانه‌های بصری کوچیک و قابل شناسایی تبدیل کنه. این کار به هوش مصنوعی کمک کرد تا تفاوت‌های ریز بین صحنه‌های متحرک رو تشخیص بده.

برای آزمایش MovieNet، محققان، کلیپ‌های ویدئویی از قورباغه‌های کوچیک تو شرایط مختلف بهش نشون دادن. MovieNet نه تنها با دقت 82.3 درصد تونست رفتارهای شنا کردن معمولی و غیرمعمولی رو تشخیص بده، بلکه حدود 18 درصد از توانایی ناظران انسانی آموزش‌دیده هم بیشتر بود. این مدل حتی از مدل‌های هوش مصنوعی موجود، مثل GoogLeNet گوگل که فقط 72 درصد دقت داشت، هم بهتر عمل کرد. کلاین می‌گه: «اینجا بود که ما پتانسیل واقعی این کار رو دیدیم».

یه نمای نزدیک از نورون‌های قورباغه که دارن به محرک‌های بینایی تو یه پس‌زمینه رنگی جواب می‌دن.
نورون‌های قورباغه در حال پاسخ به محرک‌های بینایی، یه رابطه‌ی خیلی مهم بین علوم اعصاب و هوش مصنوعی.

تیم تحقیقاتی فهمیدن که MovieNet نه تنها تو درک صحنه‌های در حال تغییر از مدل‌های هوش مصنوعی فعلی بهتر عمل می‌کنه، بلکه به داده‌ها و زمان پردازش کم‌تری هم نیاز داره. توانایی MovieNet تو ساده‌سازی داده‌ها بدون کم کردن از دقت، اونو از هوش مصنوعی‌های معمولی متمایز می‌کنه. با تقسیم اطلاعات بصری به یه سری الگوهای اساسی، MovieNet داده‌ها رو فشرده می‌کنه، مثل یه فایل فشرده که جزئیات مهم رو نگه می‌داره.

علاوه بر دقت بالا، MovieNet یه مدل هوش مصنوعی دوست‌دار محیط زیسته. پردازش هوش مصنوعی‌های معمولی به انرژی زیادی نیاز داره و آثار مخرب زیادی برای محیط زیست داره. نیاز کمتر MovieNet به داده‌ها، یه گزینه‌ی بهتر برای محیط زیست رو ارائه می‌ده که در عین عملکرد بالا، باعث صرفه‌جویی تو انرژی هم می‌شه. کلاین می‌گه: «با تقلید از مغز، تونستیم هوش مصنوعی‌مون رو خیلی کمتر از قبل نیازمند کنیم و راه رو برای مدل‌هایی هموار کنیم که نه تنها قوی هستن، بلکه پایدار هم هستن».

اون ادامه می‌ده: «این کارایی همچنین درهای جدیدی رو برای گسترش هوش مصنوعی تو زمینه‌هایی که روش‌های معمولی هزینه‌بر هستن، باز می‌کنه».

MovieNet و پزشکی

علاوه بر این، MovieNet می‌تونه تو پزشکی هم تغییراتی ایجاد کنه. با پیشرفت این فناوری، ممکنه به یه ابزار با ارزش برای تشخیص تغییرات ریز تو بیماری‌های اولیه تبدیل بشه، مثل تشخیص ریتم‌های نامنظم قلب یا شناسایی اولین نشانه‌های بیماری‌های عصبی مثل پارکینسون. مثلاً، تغییرات حرکتی کوچیک مرتبط با پارکینسون که معمولاً برای چشم انسان سخته، می‌تونه به‌موقع توسط هوش مصنوعی شناسایی بشه و زمان باارزشی رو برای مداخله‌ی پزشکان فراهم کنه.

یه تصویر که نشون می‌ده مدل هوش مصنوعی MovieNet داره کلیپ‌های ویدئویی رو پردازش می‌کنه و اون‌ها رو به الگوهای قابل تشخیص تبدیل می‌کنه.
یه تصویر که نشون میده چطوری مدل هوش مصنوعی MovieNet داره داده‌های ویدیویی رو پردازش و تحلیل می‌کنه.

علاوه بر این، توانایی MovieNet تو فهم تغییرات الگوهای شنا کردن قورباغه‌های کوچیک وقتی در معرض مواد شیمیایی قرار می‌گیرن، می‌تونه به تکنیک‌های غربالگری دارویی دقیق‌تری منجر بشه، چون دانشمندا می‌تونن پاسخ‌های سلولی رو به‌طور پویا مطالعه کنن به جای اینکه به عکس‌های ثابت تکیه کنن. هیرا موتو می‌گه: «روش‌های فعلی تغییرات مهم رو از دست می‌دن چون فقط می‌تونن عکس‌هایی رو که تو فاصله‌های زمانی ثبت شدن، تحلیل کنن. دیدن سلول‌ها تو طول زمان به MovieNet این امکان رو می‌ده که ریزترین تغییرات رو موقع آزمایش دارو دنبال کنه».

آینده‌ی MovieNet

کلاین و هیرا موتو، برنامه‌ دارن تا توانایی MovieNet رو برای سازگاری با محیط‌های مختلف بهتر کنن و تنوع و پتانسیل کاربردهای اون رو افزایش بدن. کلاین می‌گه: «الهام گرفتن از زیست‌شناسی، همچنان یه زمینه‌ی عالی برای پیشرفت تو هوش مصنوعی خواهد بود. با طراحی مدل‌هایی که مثل موجودات زنده فکر می‌کنن، می‌تونیم به سطوحی از کارایی برسیم که با رویکردهای معمولی امکان‌پذیر نیست».

این کار برای مطالعه‌ی «شناسایی نورون‌های کد‌گذاری فیلم، هوش مصنوعی شناسایی فیلم را ممکن می‌سازد» با حمایت مالی از مؤسسات ملی بهداشت (RO1EY011261، RO1EY027437 و RO1EY031597)، بنیاد خانواده‌ی هان و صندوق وقف مرکز علوم اعصاب هارولد ال. دوریس انجام شده است.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *