تعصب-هویتی-اجتماعی

تحقیقات جدید درباره تعصب هویتی اجتماعی در هوش مصنوعی

تحقیقات نشان داده‌اند که انسان‌ها به تعصب هویتی اجتماعی حساس هستند؛ یعنی تمایل به حمایت از گروه خود، خواه این گروه یک حزب سیاسی، یک دین یا یک قومیت باشد، و در عین حال به گروه‌های دیگر بی‌اعتنایی کنند. یک مطالعه جدید که توسط تیمی از دانشمندان انجام شده، نشان می‌دهد که سیستم‌های هوش مصنوعی نیز به همین نوع تعصبات مبتلا هستند و پیش‌داوری‌های بنیادی را نشان می‌دهند که فراتر از تعصبات مربوط به جنسیت، نژاد یا دین است.

استیو راثجی، پژوهشگر فوق دکتری دانشگاه نیویورک و یکی از نویسندگان این مطالعه که در نشریه Nature Computational Science منتشر شده، توضیح می‌دهد: “سیستم‌های هوش مصنوعی مانند ChatGPT می‌توانند تعصبات ‘ما در برابر آنها’ مشابه انسان‌ها را توسعه دهند و به گروه خود (ingroup) تمایل نشان دهند در حالی که نسبت به گروه‌های دیگر (outgroup) منفی هستند.” او ادامه می‌دهد: “این موضوع نشان‌دهنده یک تمایل اساسی انسانی است که به تقسیمات اجتماعی و درگیری‌ها دامن می‌زند.”

گروهی متنوع از پژوهشگران در یک آزمایشگاه مدرن در حال بحث درباره تعصب اجتماعی در هوش مصنوعی.
تحقیق و بررسی تعصب‌های هویتی اجتماعی در میان پژوهشگران هوش مصنوعی.

اما این مطالعه که با همکاری دانشمندان دانشگاه کمبریج انجام شده، خبرهای مثبتی نیز ارائه می‌دهد: تعصبات هوش مصنوعی می‌توانند با انتخاب دقیق داده‌هایی که برای آموزش این سیستم‌ها استفاده می‌شود، کاهش یابند. تیانچنگ هو، دانشجوی دکتری دانشگاه کمبریج و یکی از نویسندگان این مقاله، می‌گوید: “با افزایش ادغام هوش مصنوعی در زندگی روزمره‌مان، درک و رسیدگی به این تعصبات برای جلوگیری از تشدید تقسیمات اجتماعی موجود بسیار حیاتی است.”

این تحقیق در Nature Computational Science به بررسی ده‌ها مدل زبان بزرگ (LLMs) پرداخته است، از جمله مدل‌های پایه مانند Llama و مدل‌های پیشرفته‌تر که به‌طور خاص برای دستورالعمل‌ها تنظیم شده‌اند، از جمله GPT-4 که ChatGPT را پشتیبانی می‌کند. برای ارزیابی تعصبات هویتی اجتماعی در هر مدل زبانی، پژوهشگران مجموعاً 2000 جمله با شروع “ما هستیم” (ingroup) و “آنها هستند” (outgroup) تولید کردند که هر دو با دینامیک‌های “ما در برابر آنها” مرتبط بودند و سپس به مدل‌ها اجازه دادند جملات را کامل کنند.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول

تیم پژوهش از ابزارهای تحلیلی رایج برای سنجش اینکه آیا جملات “مثبت”، “منفی” یا “خنثی” هستند، استفاده کرد. در تقریباً تمام موارد، جملات با شروع “ما هستیم” جملات مثبت‌تری تولید کردند، در حالی که جملات با شروع “آنها هستند” جملات منفی‌تری را بازگرداندند.

تصویری انتزاعی از تعصبات رفتاری در هوش مصنوعی با مغز انسان و مداری الکتریکی.
تمایز بین تعصبات انسانی و هوش مصنوعی از طریق تصویری انتزاعی.

تحلیل تأثیرات گروه‌های اجتماعی بر مدل‌های زبانی

به‌طور خاص، جملات مربوط به گروه داخلی (در مقایسه با گروه خارجی) ۹۳٪ بیشتر احتمال داشتند مثبت باشند که نشان‌دهنده الگوی عمومی همبستگی درون‌گروهی است. در مقابل، جملات مربوط به گروه خارجی ۱۱۵٪ بیشتر احتمال داشتند منفی باشند که نشان‌دهنده خصومت شدید نسبت به گروه‌های خارجی است. به عنوان مثال، جمله مثبت “ما گروهی از جوانان بااستعداد هستیم که در حال پیشرفت به سطح بعدی هستیم” و جمله منفی “آن‌ها مانند درختی بیمار و بدشکل از گذشته هستند” می‌باشند. همچنین، جمله “ما در دوره‌ای زندگی می‌کنیم که جامعه در تمام سطوح به دنبال راه‌های جدیدی برای تفکر و زندگی در روابط است” به عنوان یک جمله خنثی ذکر شده است.

سپس محققان تلاش کردند تا تعیین کنند آیا این نتایج می‌توانند با تغییر نحوه آموزش مدل‌های زبانی بزرگ (LLMs) تغییر کنند یا خیر. برای این کار، آن‌ها مدل را با داده‌های رسانه‌های اجتماعی طرفدارانه از توییتر (اکنون X) تنظیم دقیق کردند و افزایش قابل توجهی در هر دو همبستگی درون‌گروهی و خصومت برون‌گروهی مشاهده کردند. برعکس، زمانی که آن‌ها جملات بیانگر ترجیح گروه داخلی و خصومت گروه خارجی را از همان داده‌های رسانه‌های اجتماعی قبل از تنظیم دقیق فیلتر کردند، توانستند به طور مؤثری این تأثیرات قطبی‌کننده را کاهش دهند. این نشان می‌دهد که تغییرات نسبتاً کوچک اما هدفمند در داده‌های آموزشی می‌تواند تأثیرات قابل توجهی بر رفتار مدل داشته باشد.

تصویری نزدیک از یک سیستم هوش مصنوعی تعاملی در حال نمایش گفتگویی بر روی صفحه کامپیوتر.
تعامل کاربر با سیستم هوش مصنوعی و تأثیرات مثبت و منفی گفتار.

به عبارت دیگر، محققان دریافتند که می‌توان مدل‌های زبانی بزرگ را با دقت در انتخاب داده‌های آموزشی، به گونه‌ای که بیشتر یا کمتر متعصب باشند، تنظیم کرد. یارا کیریچنکو، نویسنده این تحقیق و دانشجوی دکتری در دانشگاه کمبریج، می‌گوید: “موثر بودن حتی داده‌کاوی ساده در کاهش سطوح همبستگی درون‌گروهی و خصومت برون‌گروهی، نشان‌دهنده مسیرهای امیدوارکننده‌ای برای بهبود توسعه و آموزش هوش مصنوعی است.” او همچنین اشاره می‌کند: “جالب است که حذف همبستگی درون‌گروهی از داده‌های آموزشی، خصومت برون‌گروهی را نیز کاهش می‌دهد که نقش گروه داخلی را در تبعیض برون‌گروهی تأکید می‌کند.”

دیگر نویسندگان این مطالعه شامل نیگل کالییر، استاد پردازش زبان طبیعی در دانشگاه کمبریج، ساندر ون در لیندن، استاد روانشناسی اجتماعی در دانشگاه کمبریج، و جان روزن‌بیک، استاد یار روانشناسی و امنیت در کالج کینگز لندن بودند.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *