تعارض-هوش-مصنوعی

تأثیر تعصبات انسانی بر هوش مصنوعی و بازخورد آن

یک مطالعه جدید توسط محققان دانشگاه UCL نشان می‌دهد که سیستم‌های هوش مصنوعی (AI) تمایل دارند تعصبات انسانی را به خود بگیرند و آن‌ها را تشدید کنند. این امر باعث می‌شود افرادی که از این هوش مصنوعی استفاده می‌کنند، خود نیز به تعصب بیشتری دچار شوند. بر اساس یافته‌های منتشر شده در مجله Nature Human Behaviour، تعصبات انسانی و هوش مصنوعی می‌توانند یک چرخه بازخورد ایجاد کنند که در آن تعصبات کوچک اولیه، خطر خطاهای انسانی را افزایش می‌دهند.

محققان نشان دادند که تعصبات هوش مصنوعی می‌تواند عواقب واقعی در دنیای واقعی داشته باشد. آن‌ها دریافتند که افرادی که با هوش مصنوعی تعصب‌آمیز تعامل دارند، بیشتر احتمال دارد که عملکرد زنان را دست کم بگیرند و احتمال دستیابی مردان سفیدپوست به مشاغل با وضعیت بالا را بیش از حد برآورد کنند. پروفسور تالی شاروط، نویسنده همکار این تحقیق از دانشگاه UCL، گفت: «انسان‌ها به طور ذاتی تعصب دارند، بنابراین وقتی ما سیستم‌های هوش مصنوعی را بر اساس مجموعه‌ای از داده‌هایی که توسط انسان‌ها تولید شده‌اند آموزش می‌دهیم، الگوریتم‌های هوش مصنوعی تعصبات انسانی موجود در داده‌ها را یاد می‌گیرند. سپس هوش مصنوعی تمایل دارد این تعصبات را برای بهبود دقت پیش‌بینی‌های خود، بهره‌برداری و تشدید کند.»

یک محیط تحقیقاتی با محققان متنوع که در حال تحلیل داده‌ها بر روی صفحه‌نمایش‌های کامپیوتری هستند.
تحقیقات علمی در حال بررسی تعصبات انسانی و هوش مصنوعی.

او افزود: «در اینجا، ما دریافتیم که افرادی که با سیستم‌های هوش مصنوعی تعصب‌آمیز تعامل دارند، خود نیز می‌توانند حتی بیشتر به تعصب دچار شوند و این می‌تواند یک اثر گلوله برفی ایجاد کند که در آن تعصبات جزئی در مجموعه‌های داده اولیه توسط هوش مصنوعی تشدید می‌شود و تعصبات فردی که از هوش مصنوعی استفاده می‌کند، افزایش می‌یابد.»

محققان یک سری آزمایش‌ها را با بیش از ۱۲۰۰ شرکت‌کننده انجام دادند که در حال تکمیل وظایف و تعامل با سیستم‌های هوش مصنوعی بودند. به عنوان مقدمه‌ای برای یکی از آزمایش‌ها، محققان یک الگوریتم هوش مصنوعی را بر اساس یک مجموعه داده از پاسخ‌های شرکت‌کنندگان آموزش دادند. از افراد خواسته شد تا قضاوت کنند که آیا یک گروه از چهره‌ها در یک عکس خوشحال یا ناراحت به نظر می‌رسند و آن‌ها تمایل اندکی به قضاوت چهره‌ها به عنوان ناراحت داشتند. هوش مصنوعی این تعصب را یاد گرفت و آن را به تعصبی بزرگ‌تر در قضاوت چهره‌ها به عنوان ناراحت تشدید کرد.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول

گروه دیگری از شرکت‌کنندگان سپس همان وظیفه را انجام دادند، اما همچنین به آن‌ها گفته شد که هوش مصنوعی برای هر عکس چه قضاوتی کرده است. پس از تعامل با این سیستم هوش مصنوعی به مدت زمانی، این گروه از افراد تعصب هوش مصنوعی را درونی کردند و احتمال بیشتری داشتند که بگویند چهره‌ها ناراحت به نظر می‌رسند، نسبت به قبل از تعامل با هوش مصنوعی.

تصویری از فردی که با یک سیستم هوش مصنوعی تعامل دارد و در حال قضاوت در مورد احساسات چهره‌هاست.
فردی که برای قضاوت در مورد حالات چهره‌ها با هوش مصنوعی تعامل می‌کند.

تأثیر تعصبات انسانی بر هوش مصنوعی

این موضوع نشان می‌دهد که هوش مصنوعی از یک مجموعه داده‌ای که توسط انسان‌ها تهیه شده، تعصباتی را یاد گرفته و سپس تعصبات ذاتی گروه دیگری از افراد را تقویت کرده است. محققان نتایج مشابهی را در آزمایش‌های مختلف مشاهده کردند، از جمله ارزیابی جهت حرکت مجموعه‌ای از نقاط روی صفحه نمایش یا ارزیابی عملکرد یک فرد در یک وظیفه خاص. در اینجا، افراد به‌ویژه پس از تعامل با یک سیستم هوش مصنوعی تعصب‌دار، تمایل بیشتری به بزرگ‌نمایی عملکرد مردان داشتند (این سیستم با تعصب جنسیتی ذاتی طراحی شده بود تا تعصبات بسیاری از هوش‌های مصنوعی موجود را تقلید کند). شرکت‌کنندگان به‌طور کلی از میزان تأثیر هوش مصنوعی بی‌خبر بودند. زمانی که به افراد به‌طور نادرست گفته می‌شد که با یک شخص دیگر در حال تعامل هستند، در حالی که در واقع با یک هوش مصنوعی در ارتباط بودند، تعصبات را به میزان کمتری درونی‌سازی می‌کردند. محققان می‌گویند این ممکن است به این دلیل باشد که افراد انتظار دارند هوش مصنوعی در برخی وظایف دقت بیشتری نسبت به انسان داشته باشد.

محققان همچنین آزمایش‌هایی با یک سیستم هوش مصنوعی تولیدی پرکاربرد به نام Stable Diffusion انجام دادند. در یکی از این آزمایش‌ها، محققان از هوش مصنوعی خواستند که عکس‌هایی از مدیران مالی تولید کند که نتایج تعصب‌آمیزی به همراه داشت، زیرا مردان سفیدپوست بیش از سهم واقعی خود نمایان شدند. سپس از شرکت‌کنندگان خواسته شد که یک سری عکس‌های پرتره را مشاهده کرده و انتخاب کنند که کدام فرد احتمالاً مدیر مالی است، قبل و بعد از مشاهده تصاویری که توسط هوش مصنوعی تولید شده بود. محققان دریافتند که شرکت‌کنندگان پس از مشاهده تصاویر تولید شده توسط Stable Diffusion، تمایل بیشتری به این که یک مرد سفیدپوست احتمالاً مدیر مالی است، نشان دادند.

تصویری که تعادل ناعادلانه انتخاب‌ها را بین گروه‌های مختلف نشان می‌دهد.
نشان‌دهنده تعصبات موجود در انتخاب‌های انسانی و تأثیر هوش مصنوعی.

دکتر موشه گلیکمن، نویسنده مشترک این تحقیق (از دانشگاه UCL در رشته روانشناسی و علوم زبان و مرکز ماکس پلانک UCL برای روانپزشکی محاسباتی و تحقیقات پیری) گفت: «نه تنها افراد تعصب‌دار به ایجاد هوش‌های مصنوعی تعصب‌دار کمک می‌کنند، بلکه سیستم‌های هوش مصنوعی تعصب‌دار می‌توانند باورهای افراد را تغییر دهند، به‌طوری که افرادی که از ابزارهای هوش مصنوعی استفاده می‌کنند، ممکن است در زمینه‌هایی از قضاوت‌های اجتماعی تا ادراکات پایه‌ای، تعصب بیشتری پیدا کنند.» او افزود: «مهم است که ما همچنین دریافتیم که تعامل با هوش‌های مصنوعی دقیق می‌تواند قضاوت‌های افراد را بهبود بخشد، بنابراین ضروری است که سیستم‌های هوش مصنوعی به‌گونه‌ای اصلاح شوند که تا حد ممکن عاری از تعصب و دقیق باشند.»

پروفسور شاروط نیز گفت: «توسعه‌دهندگان الگوریتم مسئولیت بزرگی در طراحی سیستم‌های هوش مصنوعی دارند؛ تأثیر تعصبات هوش مصنوعی می‌تواند پیامدهای عمیقی داشته باشد، زیرا هوش مصنوعی به‌طور فزاینده‌ای در جنبه‌های مختلف زندگی ما رایج می‌شود.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *