یه نگاهی به تحقیقات تازه در مورد تعصبات اجتماعی تو سیستمهای هوش مصنوعی
تحقیقات نشون داده که آدما نسبت به تعصباتِ مربوط به هویتِ جمعی حساسن؛ یعنی به گروه خودشون، چه یه حزب سیاسی باشه، چه یه مذهب یا یه قومیت، گرایش بیشتر دارن و گروههای دیگه رو تحقیر میکنن. یه پژوهش جدید که یه تیم از دانشمندا انجام دادن، نشون میده که سیستمهای هوش مصنوعی هم دچار همین نوع تعصبات میشن و پیشقضاوتهای بنیادینی رو نشون میدن که از تعصباتِ معمول مثل جنسیت، نژاد یا مذهب فراتر میرن. “استیو راثجی”، پژوهشگرِ فوق دکتری دانشگاه نیویورک و یکی از نویسندههای این تحقیق که تو مجلهی Nature Computational Science منتشر شده، توضیح میده: “هوش مصنوعیها مثل ChatGPT میتونن تعصبات ‘ما در برابر اونها’ رو، شبیه آدما، بروز بدن و به گروههای خودشون علاقه نشون بدن و در عین حال نسبت به گروههای دیگه حالت منفی داشته باشن.” اون اضافه میکنه: “این نشوندهندهی یه گرایشِ ریشهای انسانیه که باعث ایجاد تفرقه و درگیریهای اجتماعی میشه.”
با این حال، این تحقیق که با همکاری دانشمندان دانشگاه کمبریج انجام شده، یه خبرای خوب هم داره: میشه با انتخاب دقیق دادههایی که برای آموزش این سیستمها استفاده میشه، از تعصبای هوش مصنوعی کم کرد. “تیانچنگ هو”، دانشجوی دکتری دانشگاه کمبریج و یکی از نویسندههای این مقاله، میگه: “با توجه به اینکه هوش مصنوعی داره هر روز بیشتر وارد زندگیمون میشه، فهمیدن و برخورد با این تعصبات خیلی مهمه تا جلوی بیشتر شدن تفرقههای اجتماعی رو بگیریم.”

این تحقیق که تو حوزه علوم محاسباتی طبیعی انجام شده، دهها مدل زبانیِ بزرگ (LLMs) رو بررسی کرده، از مدلهای پایه مثل Llama تا مدلهای پیشرفتهتر که مخصوص دستورالعملها تنظیم شدن، مثل GPT-4 که داره ChatGPT رو تغذیه میکنه. برای ارزیابی تعصباتِ مربوط به هویت اجتماعی هر مدل زبانی، محققان در مجموع 2000 تا جمله با استفاده از عبارات “ما هستیم” (گروه خودی) و “اونها هستن” (گروه دیگه) ساختن که هر دو به پویاییهای “ما علیه اونها” مربوط بودن و بعد گذاشتن مدلها جملهها رو کامل کنن. تیم از ابزارهای تحلیل معمول استفاده کرد تا بررسی کنه که آیا جملهها “مثبت”، “منفی” یا “خنثی” هستن یا نه. توی تقریباً همهی موارد، عبارتهای “ما هستیم” جملههای مثبتتری تولید کردن در حالی که عبارتهای “اونها هستن” جملههای منفیتری به همراه داشتن.
بررسی رفتار گروهی و تاثیرش روی هوش مصنوعی
به طور خاص، جملههای مربوط به گروه خودی (در مقابل گروه بیرونی) ۹۳٪ بیشتر احتمال داشت که مثبت باشن، که این نشوندهندهی یه الگوی کلی برای همبستگی با گروه خودی هست. برعکس، جملههای مربوط به گروه بیرونی ۱۱۵٪ بیشتر احتمال داشت که منفی باشن، که نشوندهندهی یه خصومت شدید نسبت به گروههای بیرونیه. به عنوان مثال میشه گفت یه جملهی مثبت اینطوری باشه: “ما یه گروه از جوونای بااستعدادیم که داریم میریم مرحلهی بعد.” در حالی که یه جملهی منفی این شکلی میشه: “اونا مثل یه درخت مریض و بدشکل از گذشته هستن.” همچنین، یه جمله که به عنوان جمله خنثی مثال زده شده، اینه: “ما تو زمانی داریم زندگی میکنیم که جامعه داره تو همهی سطوح دنبال راههای جدیدی برای فکر کردن و زندگی کردن تو رابطهها میگرده.”
📢 اگر عاشق علم هستید و نمیخواهید هیچ مقالهای را از دست بدهید…
به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر میشوند.
📲 عضویت در کانال تلگرام🎨 ربات رایگان ساخت عکس با هوش مصنوعی
با ربات @ai_photo_bbot، هر متنی را به تصویر تبدیل کنید! 🚀
ربات کاملاً رایگان است و منتظر ایدههای جذاب شماست. 🌟

بعدش محققان دنبال این بودن که آیا میشه این نتایج رو با تغییر دادن نحوهی آموزش مدلهای زبانی بزرگ (LLMs) تحت تاثیر قرار داد یا نه. واسه این کار، اونا LLM رو با دادههای شبکههای اجتماعیِ حزبی از توییتر (که الان X اسم داره) “تنظیم دقیق” کردن و یه افزایش قابل توجه تو همبستگی گروهی و خصومت نسبت به گروههای بیرونی دیدن. برعکس، وقتی اونا جملههایی که طرفداری از گروه خودی و خصومت نسبت به گروههای بیرونی رو نشون میداد از همون دادههای شبکههای اجتماعی قبل از تنظیم دقیق حذف کردن، تونستن به شکل مؤثری این اثراتِ دوقطبیکننده رو کم کنن. این نشون میده که تغییرات نسبتاً کوچیک ولی هدفمند تو دادههای آموزشی میتونه تاثیرات قابل توجهی روی رفتار مدل بزاره.
به عبارت دیگه، محققان فهمیدن که با دقت تو انتخاب دادههای آموزشی، میشه مدلهای زبانی بزرگ رو به سمت تمایلات بیشتر یا کمتر جانبدارانه هدایت کرد. “مؤثر بودن حتی یه دادهکاوی نسبتاً ساده واسه کم کردن سطح همبستگیِ گروهی و خصومت نسبت به گروههای بیرونی، راههای امیدوارکنندهای رو برای بهتر کردن توسعه و آموزش هوش مصنوعی نشون میده,” به گفتهی یارا کیریچنکو، نویسندهی این تحقیق و دانشجوی دکتری گیتس تو دانشگاه کمبریج که قبلاً دانشجوی ریاضی و روانشناسی تو NYU بوده.

“جالبه که حذف همبستگی با گروه خودی از دادههای آموزشی، خصومت نسبت به گروههای بیرونی رو هم کم میکنه، که این نشون میده نقش گروه خودی تو تبعیض قائل شدن بین گروههای بیرونی چقدر مهمه.”
از دیگه نویسندههای این تحقیق میشه به نیگل کالییر، استاد پردازش زبان طبیعی تو دانشگاه کمبریج، سندر ون در لیندن، استاد روانشناسی اجتماعی تو دانشگاه کمبریج، و جان روزنبیک، استادیار روانشناسی و امنیت تو کالج کینگ لندن اشاره کرد.
بیشتر بخوانید
مدیتیشن یک روز پربرکت برای جذب عشق وامنیت و سلامتی
خود هیپنوتیزم درمان زود انزالی در مردان توسط هیپنوتراپیست رضا خدامهری
تقویت سیستم ایمنی بدن با خود هیپنوتیزم
شمس و طغری
خود هیپنوتیزم ماندن در رژیم لاغری و درمان قطعی چاقی کاملا علمی و ایمن
خود هیپنوتیزم تقویت اعتماد به نفس و عزت نفس