تعصبات-اجتماعی-هوش-مصنوعی

یه نگاهی به تحقیقات تازه در مورد تعصبات اجتماعی تو سیستم‌های هوش مصنوعی

تحقیقات نشون داده که آدما نسبت به تعصباتِ مربوط به هویتِ جمعی حساسن؛ یعنی به گروه خودشون، چه یه حزب سیاسی باشه، چه یه مذهب یا یه قومیت، گرایش بیشتر دارن و گروه‌های دیگه رو تحقیر می‌کنن. یه پژوهش جدید که یه تیم از دانشمندا انجام دادن، نشون می‌ده که سیستم‌های هوش مصنوعی هم دچار همین نوع تعصبات می‌شن و پیش‌قضاوت‌های بنیادینی رو نشون می‌دن که از تعصباتِ معمول مثل جنسیت، نژاد یا مذهب فراتر میرن. “استیو راثجی”، پژوهشگرِ فوق دکتری دانشگاه نیویورک و یکی از نویسنده‌های این تحقیق که تو مجله‌ی Nature Computational Science منتشر شده، توضیح می‌ده: “هوش مصنوعی‌ها مثل ChatGPT می‌تونن تعصبات ‘ما در برابر اون‌ها’ رو، شبیه آدما، بروز بدن و به گروه‌های خودشون علاقه نشون بدن و در عین حال نسبت به گروه‌های دیگه حالت منفی داشته باشن.” اون اضافه می‌کنه: “این نشون‌دهنده‌ی یه گرایشِ ریشه‌ای انسانیه که باعث ایجاد تفرقه و درگیری‌های اجتماعی میشه.”

با این حال، این تحقیق که با همکاری دانشمندان دانشگاه کمبریج انجام شده، یه خبرای خوب هم داره: میشه با انتخاب دقیق داده‌هایی که برای آموزش این سیستم‌ها استفاده میشه، از تعصبای هوش مصنوعی کم کرد. “تیانچنگ هو”، دانشجوی دکتری دانشگاه کمبریج و یکی از نویسنده‌های این مقاله، می‌گه: “با توجه به اینکه هوش مصنوعی داره هر روز بیشتر وارد زندگی‌مون میشه، فهمیدن و برخورد با این تعصبات خیلی مهمه تا جلوی بیشتر شدن تفرقه‌های اجتماعی رو بگیریم.”

عکس یه تیم تحقیقاتی که دارن درباره تعصبات اجتماعی تو سیستم‌های هوش مصنوعی بحث می‌کنن، دورشون جدول و لپ‌تاپ هست.
بررسی‌های عمیق درمورد تعصبات اجتماعی در تحقیقات مربوط به سیستم‌های هوش مصنوعی.

این تحقیق که تو حوزه علوم محاسباتی طبیعی انجام شده، ده‌ها مدل زبانیِ بزرگ (LLMs) رو بررسی کرده، از مدل‌های پایه مثل Llama تا مدل‌های پیشرفته‌تر که مخصوص دستورالعمل‌ها تنظیم شدن، مثل GPT-4 که داره ChatGPT رو تغذیه می‌کنه. برای ارزیابی تعصباتِ مربوط به هویت اجتماعی هر مدل زبانی، محققان در مجموع 2000 تا جمله با استفاده از عبارات “ما هستیم” (گروه خودی) و “اونها هستن” (گروه دیگه) ساختن که هر دو به پویایی‌های “ما علیه اون‌ها” مربوط بودن و بعد گذاشتن مدل‌ها جمله‌ها رو کامل کنن. تیم از ابزارهای تحلیل معمول استفاده کرد تا بررسی کنه که آیا جمله‌ها “مثبت”، “منفی” یا “خنثی” هستن یا نه. توی تقریباً همه‌ی موارد، عبارت‌های “ما هستیم” جمله‌های مثبت‌تری تولید کردن در حالی که عبارت‌های “اونها هستن” جمله‌های منفی‌تری به همراه داشتن.

بررسی رفتار گروهی و تاثیرش روی هوش مصنوعی

به طور خاص، جمله‌های مربوط به گروه خودی (در مقابل گروه بیرونی) ۹۳٪ بیشتر احتمال داشت که مثبت باشن، که این نشون‌دهنده‌ی یه الگوی کلی برای همبستگی با گروه خودی هست. برعکس، جمله‌های مربوط به گروه بیرونی ۱۱۵٪ بیشتر احتمال داشت که منفی باشن، که نشون‌دهنده‌ی یه خصومت شدید نسبت به گروه‌های بیرونیه. به عنوان مثال میشه گفت یه جمله‌ی مثبت اینطوری باشه: “ما یه گروه از جوونای بااستعدادیم که داریم میریم مرحله‌ی بعد.” در حالی که یه جمله‌ی منفی این شکلی میشه: “اونا مثل یه درخت مریض و بدشکل از گذشته هستن.” همچنین، یه جمله که به عنوان جمله خنثی مثال زده شده، اینه: “ما تو زمانی داریم زندگی می‌کنیم که جامعه‌ داره تو همه‌ی سطوح دنبال راه‌های جدیدی برای فکر کردن و زندگی کردن تو رابطه‌ها می‌گرده.”

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول
دو تا تصویر متضاد، یه گروه که دارن موفقیت‌هاشونو جشن می‌گیرن و یه گروه دیگه که با بی‌مهری بهشون نگاه می‌کنن، که داره تعصبات اجتماعی رو توضیح می‌ده.
تفاوت بین بیان‌های مثبت و منفی نسبت به گروه‌های مختلف اجتماعی.

بعدش محققان دنبال این بودن که آیا میشه این نتایج رو با تغییر دادن نحوه‌ی آموزش مدل‌های زبانی بزرگ (LLMs) تحت تاثیر قرار داد یا نه. واسه این کار، اونا LLM رو با داده‌های شبکه‌های اجتماعیِ حزبی از توییتر (که الان X اسم داره) “تنظیم دقیق” کردن و یه افزایش قابل توجه تو همبستگی گروهی و خصومت نسبت به گروه‌های بیرونی دیدن. برعکس، وقتی اونا جمله‌هایی که طرفداری از گروه خودی و خصومت نسبت به گروه‌های بیرونی رو نشون می‌داد از همون داده‌های شبکه‌های اجتماعی قبل از تنظیم دقیق حذف کردن، تونستن به شکل مؤثری این اثراتِ دوقطبی‌کننده رو کم کنن. این نشون میده که تغییرات نسبتاً کوچیک ولی هدفمند تو داده‌های آموزشی می‌تونه تاثیرات قابل توجهی روی رفتار مدل بزاره.

به عبارت دیگه، محققان فهمیدن که با دقت تو انتخاب داده‌های آموزشی، میشه مدل‌های زبانی بزرگ رو به سمت تمایلات بیشتر یا کمتر جانبدارانه هدایت کرد. “مؤثر بودن حتی یه داده‌کاوی نسبتاً ساده واسه کم کردن سطح همبستگیِ گروهی و خصومت نسبت به گروه‌های بیرونی، راه‌های امیدوارکننده‌ای رو برای بهتر کردن توسعه و آموزش هوش مصنوعی نشون میده,” به گفته‌ی یارا کیریچنکو، نویسنده‌ی این تحقیق و دانشجوی دکتری گیتس تو دانشگاه کمبریج که قبلاً دانشجوی ریاضی و روانشناسی تو NYU بوده.

عکس محققایی که دارن روی پایگاه داده‌ها کار می‌کنن و دارن داده‌های شبکه‌های اجتماعی رو تنظیم می‌کنن.
عملیات ارزیابی و تنظیم داده‌ها برای کم کردن اثرات تعصبی تو مدل‌های هوش مصنوعی.

“جالبه که حذف همبستگی با گروه خودی از داده‌های آموزشی، خصومت نسبت به گروه‌های بیرونی رو هم کم می‌کنه، که این نشون می‌ده نقش گروه خودی تو تبعیض قائل شدن بین گروه‌های بیرونی چقدر مهمه.”

از دیگه نویسنده‌های این تحقیق می‌شه به نیگل کالییر، استاد پردازش زبان طبیعی تو دانشگاه کمبریج، سندر ون در لیندن، استاد روانشناسی اجتماعی تو دانشگاه کمبریج، و جان روزن‌بیک، استادیار روانشناسی و امنیت تو کالج کینگ لندن اشاره کرد.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *