مدل-هوش-مصنوعی-مووی‌نت

مدل هوش مصنوعی جدیدی به نام MovieNet

تصور کنید یک مدل هوش مصنوعی (AI) وجود دارد که می‌تواند تصاویر متحرک را با ظرافتی مشابه مغز انسان مشاهده و درک کند. اکنون، دانشمندان در مؤسسه Scripps Research این امر را به واقعیت تبدیل کرده‌اند و MovieNet را ایجاد کرده‌اند: یک هوش مصنوعی نوآورانه که ویدیوها را به شیوه‌ای مشابه با نحوه تفسیر صحنه‌های واقعی توسط مغز ما در طول زمان پردازش می‌کند. این مدل هوش مصنوعی الهام‌گرفته از مغز، که در مطالعه‌ای منتشر شده در Proceedings of the National Academy of Sciences در تاریخ ۱۹ نوامبر ۲۰۲۴ به تفصیل توضیح داده شده، می‌تواند صحنه‌های متحرک را با شبیه‌سازی نحوه درک دنیای واقعی توسط نورون‌ها یا سلول‌های مغزی در زمان واقعی، درک کند.

هوش مصنوعی‌های معمولی در شناسایی تصاویر ثابت مهارت دارند، اما MovieNet روشی را معرفی می‌کند که به مدل‌های یادگیری ماشین اجازه می‌دهد صحنه‌های پیچیده و در حال تغییر را شناسایی کنند؛ پیشرفتی که می‌تواند زمینه‌هایی از تشخیص پزشکی تا رانندگی خودران را متحول کند، جایی که تشخیص تغییرات ظریف در طول زمان حیاتی است. همچنین، MovieNet از نظر دقت و پایداری محیطی نسبت به هوش مصنوعی‌های معمولی برتری دارد.

نحوه عملکرد MovieNet

دکتر هولیس کلاین، نویسنده ارشد و مدیر مرکز علوم اعصاب Dorris در Scripps Research، می‌گوید: “مغز فقط تصاویر ثابت را نمی‌بیند؛ بلکه یک روایت بصری پیوسته ایجاد می‌کند.” او ادامه می‌دهد: “شناسایی تصاویر ثابت پیشرفت زیادی کرده است، اما ظرفیت مغز برای پردازش صحنه‌های جاری – مانند تماشای یک فیلم – نیاز به نوعی بسیار پیچیده‌تر از شناسایی الگو دارد. با مطالعه نحوه ضبط این توالی‌ها توسط نورون‌ها، ما توانسته‌ایم اصول مشابهی را به هوش مصنوعی اعمال کنیم.”

برای ایجاد MovieNet، کلاین و ماساکی هیرا موتو، نویسنده اول و دانشمند ارشد در Scripps Research، بررسی کردند که مغز چگونه صحنه‌های دنیای واقعی را به صورت توالی‌های کوتاه، مشابه کلیپ‌های فیلم، پردازش می‌کند. به‌طور خاص، محققان بررسی کردند که نورون‌های قورباغه‌های کوچک چگونه به محرک‌های بصری پاسخ می‌دهند. هیرا موتو توضیح می‌دهد: “قورباغه‌های کوچک سیستم بینایی بسیار خوبی دارند و ما می‌دانیم که آن‌ها می‌توانند به طور مؤثری محرک‌های متحرک را شناسایی و به آن‌ها پاسخ دهند.” او و کلاین نورون‌هایی را شناسایی کردند که به ویژگی‌های شبیه به فیلم – مانند تغییرات در روشنایی و چرخش تصویر – پاسخ می‌دهند و می‌توانند اشیاء را در حین حرکت و تغییر شناسایی کنند.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول
مدل هوش مصنوعی MovieNet در حال تفسیر تصاویر متحرک با نگاهی به پیشرفت‌های فناوری.
هوش مصنوعی MovieNet، دنیای جدیدی را از تفسیر تصاویر متحرک باز می‌کند.

نقش نورون‌ها در پردازش تصاویر متحرک

این نورون‌ها که در ناحیه پردازش بصری مغز به نام تکتوم اپتیک قرار دارند، اجزای یک تصویر متحرک را به یک توالی منسجم تبدیل می‌کنند. این فرآیند را می‌توان به یک پازل لنزیکولار تشبیه کرد: هر قطعه به تنهایی ممکن است بی‌معنا باشد، اما با هم یک تصویر کامل در حال حرکت را تشکیل می‌دهند. نورون‌های مختلف “قطعات پازل” مختلفی از یک تصویر متحرک واقعی را پردازش می‌کنند که مغز سپس آن‌ها را به یک صحنه پیوسته یکپارچه می‌کند.

محققان همچنین دریافتند که نورون‌های تکتوم اپتیک قورباغه‌ها تغییرات ظریف در محرک‌های بصری را در طول زمان تشخیص می‌دهند و اطلاعات را در کلیپ‌های دینامیک حدود ۱۰۰ تا ۶۰۰ میلی‌ثانیه‌ای به جای تصاویر ثابت ضبط می‌کنند. این نورون‌ها به الگوهای نور و سایه بسیار حساس هستند و پاسخ هر نورون به یک بخش خاص از میدان بصری به ساخت یک نقشه دقیق از یک صحنه کمک می‌کند تا یک “کلیپ فیلم” شکل بگیرد.

توسعه MovieNet: هوش مصنوعی با پردازش مغزی

کلاین و هیرا موتو، MovieNet را آموزش دادند تا پردازش مغزی را شبیه‌سازی کرده و کلیپ‌های ویدیویی را به صورت مجموعه‌ای از نشانه‌های بصری کوچک و قابل شناسایی کدگذاری کند. این امر به مدل هوش مصنوعی اجازه داد تا تفاوت‌های ظریف در صحنه‌های متحرک را تشخیص دهد. برای آزمایش MovieNet، محققان کلیپ‌های ویدیویی از قورباغه‌های جوان در حال شنا در شرایط مختلف را به آن نشان دادند. MovieNet نه تنها توانست با دقت 82.3 درصد رفتارهای شنا کردن طبیعی و غیرطبیعی را تشخیص دهد، بلکه حدود 18 درصد از توانایی‌های ناظران انسانی آموزش‌دیده نیز پیشی گرفت. این مدل حتی از مدل‌های هوش مصنوعی موجود مانند GoogLeNet گوگل که تنها 72 درصد دقت داشت، بهتر عمل کرد. کلاین می‌گوید: “اینجا بود که پتانسیل واقعی را مشاهده کردیم.”

نورون‌های موجود در مغز قورباغه در حال پردازش کلیپ‌های ویدیویی در حال حرکت.
نورون‌ها در مغز قورباغه به طور منحصر به فرد به پردازش صحنه‌های متحرک پاسخ می‌دهند.

تیم تحقیقاتی متوجه شد که MovieNet نه تنها در درک صحنه‌های متغیر بهتر از مدل‌های فعلی هوش مصنوعی است، بلکه به داده‌ها و زمان پردازش کمتری نیز نیاز دارد. توانایی MovieNet در ساده‌سازی داده‌ها بدون قربانی کردن دقت، آن را از هوش مصنوعی‌های سنتی متمایز می‌کند. با تجزیه اطلاعات بصری به توالی‌های اساسی، MovieNet به طور مؤثری داده‌ها را فشرده می‌کند، مانند یک فایل فشرده که جزئیات حیاتی را حفظ می‌کند.

مدل هوش مصنوعی دوستدار محیط زیست

علاوه بر دقت بالای خود، MovieNet یک مدل هوش مصنوعی دوستدار محیط زیست است. پردازش هوش مصنوعی سنتی به انرژی زیادی نیاز دارد و اثرات زیست‌محیطی سنگینی به جا می‌گذارد. نیازهای داده‌ای کمتر MovieNet، گزینه‌ای سبزتر را ارائه می‌دهد که در حین عملکرد در سطح بالا، انرژی را نیز صرفه‌جویی می‌کند. کلاین می‌گوید: “با تقلید از مغز، موفق شده‌ایم هوش مصنوعی خود را به مراتب کمتر از قبل نیازمند کنیم و راه را برای مدل‌هایی هموار کنیم که نه تنها قدرتمند بلکه پایدار هستند.” او ادامه می‌دهد: “این کارایی همچنین درهای جدیدی را برای گسترش هوش مصنوعی در زمینه‌هایی که روش‌های سنتی هزینه‌بر هستند، باز می‌کند.”

پتانسیل MovieNet در پزشکی

علاوه بر این، MovieNet پتانسیل تغییر شکل در پزشکی را نیز دارد. با پیشرفت فناوری، این مدل می‌تواند به ابزاری ارزشمند برای شناسایی تغییرات ظریف در شرایط اولیه تبدیل شود، مانند تشخیص ریتم‌های قلبی نامنظم یا شناسایی نشانه‌های اولیه بیماری‌های نورودژنراتیو مانند پارکینسون. به عنوان مثال، تغییرات حرکتی کوچک مرتبط با پارکینسون که معمولاً برای چشم‌های انسانی دشوار است، می‌تواند به‌طور زودهنگام توسط هوش مصنوعی شناسایی شود و زمان ارزشمندی برای مداخله پزشکان فراهم کند.

یک پزشک در حال بررسی داده‌های بیمار و مقایسه آن با تجزیه و تحلیل‌های سنتی و MovieNet.
قدرت MovieNet در بهبود روش‌های تجزیه و تحلیل اطلاعات پزشکی.

علاوه بر این، توانایی MovieNet در درک تغییرات الگوهای شنا کردن قورباغه‌ها زمانی که در معرض مواد شیمیایی قرار می‌گیرند، می‌تواند به تکنیک‌های غربالگری دارویی دقیق‌تری منجر شود، زیرا دانشمندان می‌توانند به بررسی واکنش‌های سلولی پویا بپردازند به جای تکیه بر تصاویر ایستا. هیرا موتو می‌گوید: “روش‌های کنونی تغییرات حیاتی را از دست می‌دهند زیرا فقط می‌توانند تصاویر را در فواصل زمانی تحلیل کنند.” او ادامه می‌دهد: “مشاهده سلول‌ها در طول زمان به MovieNet این امکان را می‌دهد که ظریف‌ترین تغییرات را در طول آزمایش دارویی پیگیری کند.”

آینده MovieNet

به جلو نگاه کرده، کلاین و هیرا موتو برنامه دارند که توانایی MovieNet را برای سازگاری با محیط‌های مختلف ادامه دهند و تنوع و پتانسیل کاربردهای آن را افزایش دهند. کلاین می‌گوید: “الهام‌گیری از زیست‌شناسی همچنان زمینه‌ای بارور برای پیشرفت هوش مصنوعی خواهد بود. با طراحی مدل‌هایی که مانند موجودات زنده فکر می‌کنند، می‌توانیم به سطوح کارایی دست یابیم که به سادگی با روش‌های سنتی ممکن نیست.”

این تحقیق در مطالعه “شناسایی نورون‌های کدگذاری فیلم، هوش مصنوعی شناسایی فیلم را ممکن می‌سازد”، با حمایت مالی از مؤسسات ملی بهداشت (RO1EY011261، RO1EY027437 و RO1EY031597)، بنیاد خانواده هان و صندوق وقف مرکز علوم اعصاب هارولد ال. دوریس انجام شده است.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *