تعصبات-اجتماعی-هوش-مصنوعی

تحقیقات جدید درباره تعصبات اجتماعی در سیستم‌های هوش مصنوعی

تحقیقات نشان داده‌اند که انسان‌ها به تعصب هویتی اجتماعی حساس هستند؛ بدین معنا که به گروه خود، چه یک حزب سیاسی، یک مذهب یا یک قومیت، تمایل بیشتری دارند و گروه‌های دیگر را تحقیر می‌کنند. یک مطالعه جدید که توسط تیمی از دانشمندان انجام شده است، نشان می‌دهد که سیستم‌های هوش مصنوعی نیز به همین نوع تعصبات دچار هستند و پیش‌داوری‌های بنیادی را نشان می‌دهند که فراتر از تعصبات مرتبط با جنسیت، نژاد یا مذهب هستند. استیو راثجی، پژوهشگر فوق دکتری دانشگاه نیویورک و یکی از نویسندگان این مطالعه که در نشریه Nature Computational Science منتشر شده، توضیح می‌دهد: “سیستم‌های هوش مصنوعی مانند ChatGPT می‌توانند تعصبات ‘ما در برابر آنها’ مشابه انسان‌ها را توسعه دهند و به گروه‌های خود تمایل نشان دهند و در عین حال نسبت به گروه‌های دیگر منفی باشند.” او می‌افزاید: “این موضوع نشان‌دهنده یک تمایل بنیادی انسانی است که به تقسیمات اجتماعی و درگیری‌ها کمک می‌کند.”

با این حال، این مطالعه که با همکاری دانشمندان دانشگاه کمبریج انجام شده است، خبرهای مثبتی نیز به همراه دارد: تعصبات هوش مصنوعی می‌توانند با انتخاب دقیق داده‌های مورد استفاده برای آموزش این سیستم‌ها کاهش یابند. تیانچنگ هو، دانشجوی دکتری دانشگاه کمبریج و یکی از نویسندگان این مقاله، می‌گوید: “با هر چه بیشتر ادغام شدن هوش مصنوعی در زندگی روزمره‌مان، درک و رسیدگی به این تعصبات بسیار مهم است تا از تشدید تقسیمات اجتماعی موجود جلوگیری شود.”

تصویری از یک تیم تحقیقاتی در حال بحث درباره تعصبات اجتماعی در سیستم‌های هوش مصنوعی با جداول و لپ‌تاپ‌ها در اطراف.
تحلیل‌های عمیق درباره تعصبات اجتماعی در تحقیق بر روی سیستم‌های هوش مصنوعی.

این تحقیق در زمینه علوم محاسباتی طبیعی به بررسی ده‌ها مدل زبان بزرگ (LLMs) پرداخته است، از جمله مدل‌های پایه مانند Llama و مدل‌های پیشرفته‌تر که به طور خاص برای دستورالعمل‌ها تنظیم شده‌اند، از جمله GPT-4 که ChatGPT را تغذیه می‌کند. برای ارزیابی تعصبات هویتی اجتماعی هر مدل زبانی، محققان مجموعاً 2000 جمله با استفاده از عبارات “ما هستیم” (گروه خود) و “آنها هستند” (گروه دیگر) تولید کردند که هر دو با دینامیک‌های “ما در برابر آنها” مرتبط بودند و سپس اجازه دادند مدل‌ها جملات را کامل کنند. تیم از ابزارهای تحلیلی متداول برای ارزیابی اینکه آیا جملات “مثبت”، “منفی” یا “خنثی” هستند، استفاده کرد. در تقریباً تمام موارد، عبارات “ما هستیم” جملات مثبت‌تری تولید کردند در حالی که عبارات “آنها هستند” جملات منفی‌تری به همراه داشتند.

تحلیل رفتار گروهی و تأثیرات آن بر هوش مصنوعی

به طور خاص، جملات مربوط به گروه خودی (در مقابل گروه بیرونی) ۹۳٪ بیشتر احتمال داشتند که مثبت باشند، که نشان‌دهنده الگوی کلی همبستگی گروهی است. در مقابل، جملات مربوط به گروه بیرونی ۱۱۵٪ بیشتر احتمال داشتند که منفی باشند، که نشان‌دهنده خصومت شدید نسبت به گروه‌های بیرونی است. به عنوان مثال، جمله مثبت می‌تواند به این شکل باشد: “ما گروهی از جوانان بااستعداد هستیم که در حال پیشرفت به سطح بعدی هستیم.” در حالی که جمله منفی به این صورت است: “آن‌ها مانند درختی بیمار و بدشکل از گذشته هستند.” همچنین، جمله‌ای که به عنوان جمله‌ای خنثی ذکر شده، این است: “ما در زمانی زندگی می‌کنیم که جامعه در تمام سطوح در جستجوی راه‌های جدیدی برای تفکر و زندگی در روابط است.”

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول
تصویر دو صحنه متضاد، یک گروه در حال جشن موفقیت‌ها و گروه دیگر با بی‌محبتی، تبیین‌کننده تعصبات اجتماعی.
تفاوت بین بیان‌های مثبت و منفی نسبت به گروه‌های مختلف اجتماعی.

سپس محققان به دنبال این بودند که آیا می‌توان این نتایج را با تغییر در نحوه آموزش مدل‌های زبانی بزرگ (LLMs) تحت تأثیر قرار داد. برای این کار، آن‌ها LLM را با داده‌های رسانه‌های اجتماعی حزبی از توییتر (اکنون X) “تنظیم دقیق” کردند و افزایش قابل توجهی در همبستگی گروهی و خصومت گروه‌های بیرونی مشاهده کردند. برعکس، زمانی که آن‌ها جملات بیانگر ترجیح گروه خودی و خصومت گروه‌های بیرونی را از همان داده‌های رسانه‌های اجتماعی قبل از تنظیم دقیق حذف کردند، توانستند به طور مؤثری این اثرات قطبی‌کننده را کاهش دهند. این نشان می‌دهد که تغییرات نسبتاً کوچک اما هدفمند در داده‌های آموزشی می‌تواند تأثیرات قابل توجهی بر رفتار مدل داشته باشد.

به عبارت دیگر، محققان دریافتند که با دقت در انتخاب داده‌های آموزشی، می‌توان مدل‌های زبانی بزرگ را به سمت تمایلات بیشتر یا کمتر جانبدارانه هدایت کرد. “موثر بودن حتی داده‌کاوی نسبتاً ساده در کاهش سطوح همبستگی گروهی و خصومت گروه‌های بیرونی، مسیرهای امیدوارکننده‌ای برای بهبود توسعه و آموزش هوش مصنوعی پیشنهاد می‌دهد،” به گفته یارا کیریچنکو، نویسنده این تحقیق و دانشجوی دکتری گیتس در دانشگاه کمبریج که قبلاً دانشجوی ریاضی و روانشناسی در NYU بود.

تصویری از محققانی که در حال کار بر روی پایگاه داده‌ها هستند و داده‌های رسانه‌های اجتماعی را تنظیم می‌کنند.
عملیات ارزیابی و تنظیم داده‌ها برای کاهش اثرات تعصبی در مدل‌های هوش مصنوعی.

“جالب است که حذف همبستگی گروه خودی از داده‌های آموزشی همچنین خصومت گروه‌های بیرونی را کاهش می‌دهد، که نقش گروه خودی را در تبعیض علیه گروه‌های بیرونی تأکید می‌کند.”

دیگر نویسندگان این مطالعه شامل نیگل کالییر، استاد پردازش زبان طبیعی در دانشگاه کمبریج، سندر ون در لیندِن، استاد روانشناسی اجتماعی در دانشگاه کمبریج، و جان روزن‌بیک، استادیار روانشناسی و امنیت در کالج کینگ لندن بودند.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *