بهبود-تخمین-عدم-قطعیت

بهبود تخمین‌های عدم اطمینان توو مدل‌های یادگیری ماشین

از اونجایی که مدل‌های یادگیری ماشینی ممکنه پیش‌بینی‌های اشتباهی داشته باشن، پژوهشگرها معمولاً این مدل‌ها رو به یه قابلیت مهم، یعنی ارزیابی اعتماد به نفس توو تصمیم‌گیری‌هاشون مجهز می‌کنن. این موضوع مخصوصاً توو حوزه‌های حساس، مثل تشخیص بیماری‌ها توو عکس‌های پزشکی یا فیلتر کردن درخواست‌های شغلی، خیلی اهمیت داره. اما تخمین‌های عدم اطمینان یه مدل، فقط وقتی به درد می‌خورن که دقیق باشن. مثلاً، اگه یه مدل بگه که ۴۹٪ مطمئنه که یه عکس پزشکی افیوژن پلور رو نشون می‌ده، باید توو ۴۹٪ از موارد این مدل درست از آب دربیاد.

یه سری محققای MIT یه روش جدید معرفی کردن که می‌تونه تخمین‌های عدم اطمینان توو مدل‌های یادگیری ماشین رو بهتر کنه. روششون نه تنها تخمینای عدم اطمینان دقیق‌تری نسبت به روش‌های دیگه می‌ده، بلکه این کار رو با راندمان بیشتری هم انجام می‌ده. علاوه بر این، به خاطر مقیاس‌پذیری این روش، می‌شه اون رو رو مدل‌های بزرگ و عمیق که دارن بیشتر توو مراقبت‌های بهداشتی و جاهای حساس دیگه استفاده می‌شن، پیاده کرد. این تکنیک می‌تونه به کاربرای نهایی، که خیلی‌هاشون تخصص یادگیری ماشین ندارن، اطلاعاتی بده که بتونن تصمیم بگیرن که آیا به پیش‌بینی‌های یه مدل اطمینان کنن یا نه، یا اینکه آیا اصلاً باید این مدل رو برای یه کار خاص استفاده کرد یا نه.

ناتان نگ، که دانش‌آموخته‌ی دانشگاه تورنتو و یه دانشجوی مهمون توو MIT هست و نویسنده‌ی اصلی این تحقیق، می‌گه: “آدم راحت می‌بینه که این مدل‌ها توو جاهایی که خیلی خوب کار می‌کنن، عملکرد خوبی دارن و بعد فکر می‌کنه توو جاهای دیگه هم همین‌طورن. این موضوع اهمیت کارایی مثل این رو که دنبال بهتر کردن کالیبراسیون عدم اطمینان این مدل‌ها هستن، بیشتر می‌کنه، تا مطمئن بشن که این عدم اطمینان‌ها با درک انسانی از عدم اطمینان هم‌خونی دارن.”

نگ این مقاله رو با راجر گروس، که استادیار علوم کامپیوتر دانشگاه تورنتو هست، و مژده قاسمی، استادیار دپارتمان مهندسی برق و علوم کامپیوتر و عضو مؤسسه علوم مهندسی پزشکی و آزمایشگاه سیستم‌های اطلاعات و تصمیم‌گیری، نوشته. این تحقیق قراره توو کنفرانس بین‌المللی یادگیری ماشین ارائه بشه.

تخمین عدم اطمینان

روش‌های تخمین عدم اطمینان معمولاً به محاسبات آماری پیچیده‌ای نیاز دارن که برای مدل‌های یادگیری ماشین با میلیون‌ها پارامتر، خیلی هم مقیاس‌پذیر نیستن. این روش‌ها همچنین از کاربرا می‌خوان که فرضیاتی در مورد مدل و داده‌هایی که برای آموزش اون استفاده شده، ارائه بدن. محققای MIT یه روش متفاوت رو انتخاب کردن. اونا از چیزی که به عنوان اصل حداقل طول توصیف (MDL) معروفه استفاده کردن، که نیازی به این فرضیات نداره و می‌تونه دقت روش‌های دیگه رو تحت تأثیر قرار بده. MDL برای بهتر کردن تخمین و کالیبراسیون عدم اطمینان برای نقاط آزمایشی که از مدل خواسته شده تا اون‌ها رو برچسب‌گذاری کنه، استفاده می‌شه.

تصویری از یه آزمایشگاه که توش پژوهشگرها دارن عکس‌های پزشکی رو تحلیل می‌کنن و با استفاده از مدل‌های یادگیری ماشین، وضعیت‌ها رو پیش‌بینی می‌کنن.
پژوهشگرها دارن داده‌ها رو تحلیل می‌کنن و با کمک هوش مصنوعی پیش‌بینی می‌کنن.

تکنیکی که محقق‌ها توسعه دادن، اسمش IF-COMP هست، MDL رو اون‌قدر سریع می‌کنه که بشه ازش توو مدل‌های عمیق و بزرگی که توو محیطای واقعی زیادی استفاده می‌شن، استفاده کرد. MDL شامل در نظر گرفتن تمام برچسب‌های احتمالیه که یه مدل می‌تونه به یه نقطه آزمایشی اختصاص بده.

کاهش اعتماد مدل‌ها با وجود برچسب‌های جایگزین

اگه برای یه نقطه‌ی داده‌ای برچسب‌های جایگزین زیادی وجود داشته باشه که باهاش خوب جور دربیان، اعتماد مدل به برچسبی که انتخاب کرده، باید کم بشه. نگ می‌گه: “یه راه واسه فهمیدن میزان اعتماد یه مدل اینه که اطلاعات ضد و نقیض بهش بدی و ببینی چه‌قدر احتمال داره که حرفتو باور کنه.” مثلاً، فرض کن یه مدل می‌گه که یه عکس پزشکی افیوژن پلور رو نشون می‌ده. اگه محققا به مدل بگن که این عکس داره ادم رو نشون می‌ده و مدل حاضر باشه نظرشو عوض کنه، در این صورت باید به تصمیم اولیه‌اش کمتر اعتماد کنه.

پیچیدگی داده‌های تصادفی و کدگذاری

با استفاده از MDL، اگه یه مدل توو برچسب‌گذاری یه نقطه‌ی داده مطمئن باشه، باید یه کد خیلی کوتاه برای توصیف اون نقطه استفاده کنه. اگه در مورد تصمیمش مطمئن نباشه، چون اون نقطه می‌تونه برچسبای دیگه‌ای هم داشته باشه، باید از یه کد بلندتر برای پوشش دادن این احتمالات استفاده کنه. مقدار کدی که برای برچسب‌گذاری یه نقطه‌ی داده به‌کار می‌ره، به عنوان پیچیدگی داده‌های تصادفی شناخته می‌شه. اگه محققا از مدل بپرسن که چه‌قدر حاضره نظرشو در مورد یه نقطه‌ داده با توجه به شواهد متناقض عوض کنه، پیچیدگی داده‌های تصادفی باید کم بشه، اگه مدل مطمئن باشه. اما آزمایش هر نقطه‌ی داده‌ای با استفاده از MDL، به محاسبات خیلی زیادی نیاز داره.

یه نمودار پیچیده که نشون می‌ده عدم اطمینان توو برچسب‌گذاری داده‌ها به چه شکلیه، با خطوط پیچیده و گره‌های متصل به هم.
نمودارهای پیچیده‌ی عدم اطمینان، چالش‌ها و گزینه‌های ممکن برای تصمیم‌گیری رو نشون می‌دن.

سریع‌تر کردن فرآیند با IF-COMP

با IF-COMP، محققا یه تکنیک تقریبی توسعه دادن که می‌تونه پیچیدگی داده‌های تصادفی رو با استفاده از یه تابع خاص به نام تابع تأثیر، با دقت تخمین بزنه. اونا همچنین از یه تکنیک آماری به اسم مقیاس‌گذاری دما استفاده کردن که کالیبراسیون خروجی‌های مدل رو بهتر می‌کنه. این ترکیب تابع تأثیر و مقیاس‌گذاری دما، امکان تخمینای باکیفیت از پیچیدگی داده‌های تصادفی رو فراهم می‌کنه. در نهایت، IF-COMP می‌تونه به طور کارآمد مقادیر عدم اطمینان رو تولید کنه که خوب کالیبره شده‌ان و اعتماد واقعی مدل رو نشون می‌دن.

شناسایی نقاط داده‌ی اشتباه برچسب‌گذاری شده

این تکنیک همچنین می‌تونه تعیین کنه که آیا مدل بعضی از نقاط داده رو اشتباه برچسب‌گذاری کرده یا نقاط داده‌ای که از محدوده خارج هستن رو شناسایی کنه. محققان سیستمشون رو رو این سه تا کار آزمایش کردن و دیدن که این سیستم از روش‌های دیگه سریع‌تر و دقیق‌تر عمل می‌کنه. غاسمی می‌گه: “واقعاً مهمه که مطمئن باشیم یه مدل خوب کالیبره شده و یه نیاز رو به افزایشه که بفهمیم کی یه پیش‌بینی خاص درست به نظر نمی‌رسه. ابزارهای حسابرسی توو مسائل یادگیری ماشین، به خاطر استفاده از حجم زیادی از داده‌های بررسی نشده برای ساختن مدل‌هایی که به مشکلات انسانی اعمال می‌شن، دارن ضروری‌تر می‌شن.”

یه عکس نزدیک از یه عکس پزشکی، با دو تا پیش‌بینی مختلف (افیوژن پلور و ادم) که نشون می‌ده فرآیند کالیبراسیون به چه شکلیه.
کالیبراسیون پیش‌بینی‌ها از طریق عکس‌های پزشکی و بررسی راه‌حل‌های جایگزین.

کاربردهای گسترده‌ی IF-COMP

IF-COMP به مدل خاصی وابسته نیست، برای همین می‌تونه مقادیر عدم اطمینان دقیقی رو برای انواع مختلف مدل‌های یادگیری ماشین ارائه بده. این می‌تونه بهش کمک کنه که توو یه دامنه‌ی وسیع‌تری از محیطای واقعی به کار گرفته بشه و در نهایت به بیشترین تعداد از متخصصا کمک کنه تا تصمیم‌های بهتری بگیرن. نگ می‌گه: “مردم باید درک کنن که این سیستم‌ها خیلی هم بی‌خطا نیستن و ممکنه توو حین کار چیزایی رو تشخیص بدن. یه مدل ممکنه این‌طور به نظر برسه که خیلی مطمئنه، اما در واقع ممکنه چیزای زیادی وجود داشته باشه که با توجه به شواهد متناقض، حاضره اونا رو باور کنه.”

آینده‌ی پژوهشا

توو آینده، محققان می‌خوان که روششون رو توو مدل‌های زبانی بزرگ به‌کار بگیرن و موارد استفاده‌ی احتمالی دیگه رو برای اصل حداقل طول توصیف بررسی کنن.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *