تحلیل-یادگیری-ماشین

کاوش در توضیحات مدل‌های یادگیری ماشینی

مدل‌های یادگیری ماشین بالاخره یه جاهایی ممکنه گند بزنن و فهمیدنشون هم سخت باشه. واسه همین، دانشمندا روش‌های توضیحی رو آوردن که به آدما کمک کنه بفهمن کی و چجوری باید به پیش‌بینی‌های یه مدل اعتماد کنن. البته این توضیحات بعضی وقتا پیچیده می‌شن و ممکنه شامل اطلاعاتی در مورد صدها تا ویژگی مدل باشن. بعضی موقعا هم این توضیحات رو به شکل نمودارهای چندبعدی نشون می‌دن که واسه کسایی که سررشته‌ای از یادگیری ماشین ندارن، درکشون سخت می‌شه.

خلاصه کردن توضیحات به زبون ساده

محققای MIT واسه اینکه ملت بتونن توضیحات هوش مصنوعی رو بفهمن، از مدل‌های زبانی بزرگ (LLMs) استفاده کردن تا توضیحات مبتنی بر نمودار رو به زبان ساده تبدیل کنن. اونا یه سیستم دو قسمتی ساختن که توضیحات یادگیری ماشین رو به یه پاراگراف متنی تبدیل می‌کنه که آدما بتونن بخونن و بعدش هم به‌طور خودکار کیفیت این توضیح رو بررسی می‌کنه تا کاربر نهایی بفهمه باید بهش اعتماد کنه یا نه. محققا با دادن چند نمونه توضیح به سیستم، می‌تونن توضیحات رو متناسب با سلیقه کاربر یا نیازهای برنامه‌های خاص تنظیم کنن.

در آینده، محققا امیدوارن که با استفاده از این روش، به کاربرها اجازه بدن که از مدل‌ها سوالای بیشتری بپرسن تا بفهمن پیش‌بینی‌ها توی شرایط واقعی چجوری به‌دست اومدن. الکساندرا زایتک، دانشجوی دکتری رشته مهندسی برق و علوم کامپیوتر و نویسنده اصلی یه مقاله در این مورد، می‌گه: «هدف ما اینه که یه قدم اول برداریم تا کاربرها بتونن با مدل‌های یادگیری ماشین در مورد دلیل پیش‌بینی‌های خاص گپ بزنن و در نهایت بتونن تصمیم بگیرن که به حرف مدل گوش بدن یا نه». زایتک توی این مقاله با سارا پیدو، که محقق پسادکترا توی MIT هست؛ سارا الناقیمیش، دانشجوی دکتری EECS؛ لور برتی-اکویل، مدیر پژوهش در مؤسسه ملی تحقیقات فرانسه و کالیان ویرامچاننی، دانشمند ارشد پژوهش در آزمایشگاه سیستم‌های اطلاعات و تصمیم‌گیری همکاری کرده. این تحقیق قراره توی کنفرانس IEEE Big Data ارائه بشه.

توضیحات SHAP

محققین روی یه نوع خیلی معروف از توضیحات یادگیری ماشین به اسم SHAP تمرکز کردن. توی یه توضیح SHAP، به هر ویژگی که مدل برای پیش‌بینی استفاده می‌کنه، یه مقدار اختصاص داده می‌شه. مثلاً اگه یه مدلی قیمت خونه‌ها رو پیش‌بینی کنه، یکی از این ویژگی‌ها می‌تونه موقعیت خونه باشه. به موقعیت یه مقدار مثبت یا منفی می‌دن که نشون می‌ده این ویژگی چقدر روی پیش‌بینی کلی مدل تأثیر داره. معمولا، توضیحات SHAP رو به شکل نمودارهای میله‌ای نشون می‌دن که مشخص می‌کنه کدوم ویژگی‌ها مهم‌تر یا کم‌اهمیت‌تر هستن. اما واسه یه مدل با بیشتر از 100 تا ویژگی، اون نمودار میله‌ای خیلی زود می‌شه یه چیزی که نمی‌شه مدیریتش کرد.

گروهی از محققان در یک آزمایشگاه مدرن درباره توضیحات مدل‌های یادگیری ماشین در حال بحث هستند.
محقق‌ها دارن تلاش می‌کنن تا بهتر بفهمن مدل‌های یادگیری ماشین چجوری کار می‌کنن.

ویرامچاننی می‌گه: «ما محققا، باید کلی انتخاب کنیم که چی رو می‌خوایم به‌صورت بصری نشون بدیم. اگه تصمیم بگیریم فقط 10 تا از مهم‌ترین ویژگی‌ها رو نشون بدیم، ممکنه ملت بپرسن بقیه ویژگی‌ها چی شدن. استفاده از زبان طبیعی این آزادی عمل رو به ما می‌ده که دیگه این انتخابا رو نکنیم». ولی محققا به‌جای اینکه یه مدل زبانی بزرگ رو بذارن توضیحات رو به زبان طبیعی بسازه، از LLM استفاده کردن تا یه توضیح SHAP موجود رو تبدیل به یه داستان کنن که بشه خوندش.

معرفی سیستم EXPLINGO

زی‌تک توضیح می‌ده که با سپردن فقط بخش زبانی به LLM، احتمال اشتباه توی توضیحات کم می‌شه. سیستم اونا، که اسمش EXPLINGO هست، به دو قسمت تقسیم می‌شه که با هماهنگی کار می‌کنن. قسمت اول، که اسمش NARRATOR هست، از LLM استفاده می‌کنه تا توضیحات داستانی بسازه از توضیحات SHAP که با سلیقه کاربر همخونی داشته باشه. با ارائه 3 تا 5 تا نمونه نوشته شده از توضیحات داستانی به NARRATOR، LLM سبکش رو موقع تولید متن تقلید می‌کنه.

سفارشی‌سازی آسون NARRATOR

زی‌تک می‌گه: «به‌جای اینکه کاربر بخواد توضیح بده که چه جور توضیحیو می‌خواد، بهتره فقط بنویسه که چی می‌خواد ببینه.» این کار باعث می‌شه که NARRATOR خیلی راحت، با نشون دادن یه سری مثال دست‌نویس، واسه موارد جدید سفارشی بشه. بعد از اینکه NARRATOR یه توضیح ساد‌ه‌درست کرد، قسمت دوم، که اسمش GRADER هست، از LLM استفاده می‌کنه تا توضیح رو بر اساس چهار تا معیار بررسی کنه: خلاصه بودن، دقیق بودن، کامل بودن و روان بودن. GRADER به‌طور خودکار LLM رو با متن NARRATOR و توضیح SHAP که داره توضیح می‌ده، راهنمایی می‌کنه.

تصویری از فرایند تبدیل داده‌های پیچیده یادگیری ماشین به متن قابل خواندن و ساده.
فرآیند ساده‌سازی توضیحات یادگیری ماشین با کمک مدل‌های زبانی بزرگ.

دقت توی ارزیابی

زی‌تک می‌گه: «ما فهمیدیم که حتی وقتی یه LLM یه کاری رو اشتباه انجام می‌ده، معمولا توی بازبینی یا تایید اون کار اشتباه نمی‌کنه». کاربرها هم می‌تونن GRADER رو جوری تنظیم کنن که به هر معیار وزن متفاوتی بده. اون اضافه می‌کنه: «شما می‌تونید تصور کنید که توی یه مورد حساس، وزن دقت و کامل بودن خیلی بیشتر از روان بودن باشه».

تحلیل داستان‌ها

واسه زی‌تک و همکاراش، یکی از بزرگ‌ترین چالش‌ها این بود که LLM رو طوری تنظیم کنن که داستان‌های طبیعی تولید کنه. هرچی دستورالعمل‌های بیشتری برای کنترل سبک اضافه می‌کردن، احتمال اینکه LLM توی توضیحاتش اشتباه کنه، بیشتر می‌شد. اون می‌گه: «کلی تنظیمات دستورالعمل‌ها رو انجام دادیم تا بتونیم هر اشتباهو دونه دونه پیدا کنیم و درستش کنیم.» محققا واسه تست سیستمشون، 9 تا مجموعه داده یادگیری ماشین با توضیحات رو انتخاب کردن و از کاربرای مختلف خواستن که برای هر مجموعه داده یه داستان بنویسن. این کار بهشون این امکانو داد که توانایی NARRATOR رو توی تقلید از سبک‌های منحصر به فرد بسنجن. اونا از GRADER استفاده کردن تا به هر توضیح داستانی بر اساس اون چهارتا معیار نمره بدن.

تصویری از سیستم EXPLINGO که در حال ایجاد توضیحات قابل خواندن و ارزیابی آن‌ها است.
نحوه عملکرد سیستم EXPLINGO در تولید و ارزیابی توضیحات.

نتایج و پیشرفت‌ها

در نهایت، محققا دیدن که سیستمشون می‌تونه توضیحات داستانی با کیفیت بالا تولید کنه و به‌طور موثری از سبک‌های نوشتاری مختلف تقلید کنه. نتایجشون نشون می‌ده که ارائه چند مثال دستی، سبکه داستان‌نویسی رو خیلی بهتر می‌کنه. اما این مثالا باید با دقت نوشته بشن؛ چون استفاده از کلمات مقایسه‌ای مثل «بزرگ‌تر» ممکنه باعث بشه که GRADER توضیحات دقیقو اشتباه علامت بزنه.

آینده EXPLINGO

بر اساس این نتایج، محققا می‌خوان تکنیکایی رو بررسی کنن که می‌تونه به سیستمشون کمک کنه تا بهتر با کلمات مقایسه‌ای کنار بیاد. اونا همچنین می‌خوان EXPLINGO رو با اضافه کردن توجیه به توضیحات گسترش بدن. در درازمدت، اونا امیدوارن که از این کار به‌عنوان یه پایه محکم واسه ساختن یه سیستم تعاملی استفاده کنن که توی اون کاربر بتونه از مدل سوالای بیشتری درمورد یه توضیح بپرسه. زی‌تک می‌گه: «این می‌تونه توی تصمیم‌گیری به روش‌های مختلف کمک کنه. اگه آدما با پیش‌بینی یه مدل اختلاف نظر داشته باشن، ما می‌خوایم که بتونن سریع بفهمن که آیا حسشون درسته یا حس مدل و اینکه این تفاوت از کجا ناشی می‌شه.»

“`

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *