تأثیر-هوش-مصنوعی-تعصبات

تأثیر هوش مصنوعی بر تعصبات انسانی

یک مطالعه جدید توسط محققان دانشگاه UCL نشان می‌دهد که سیستم‌های هوش مصنوعی (AI) تمایل دارند تعصبات انسانی را به خود بگیرند و آن‌ها را تشدید کنند. این امر باعث می‌شود افرادی که از این هوش مصنوعی استفاده می‌کنند، خودشان نیز بیشتر متعصب شوند. به گفته یافته‌های منتشر شده در مجله Nature Human Behaviour، تعصبات انسانی و هوش مصنوعی می‌توانند یک چرخه بازخورد ایجاد کنند که در آن تعصبات اولیه کوچک، خطر خطای انسانی را افزایش می‌دهند.

محققان نشان دادند که تعصب در هوش مصنوعی می‌تواند عواقب واقعی داشته باشد. آن‌ها دریافتند افرادی که با هوش مصنوعی متعصب تعامل داشتند، بیشتر احتمال داشت که عملکرد زنان را دست کم بگیرند و احتمال موفقیت مردان سفیدپوست در مشاغل با وضعیت بالا را بیش از حد ارزیابی کنند. پروفسور Tali Sharot، نویسنده همکار این تحقیق از دانشگاه UCL، گفت: “انسان‌ها ذاتاً متعصب هستند، بنابراین زمانی که ما سیستم‌های هوش مصنوعی را بر اساس مجموعه‌های داده‌ای که توسط انسان‌ها تولید شده‌اند آموزش می‌دهیم، الگوریتم‌های هوش مصنوعی تعصبات انسانی موجود در داده‌ها را یاد می‌گیرند. سپس هوش مصنوعی تمایل دارد از این تعصبات بهره‌برداری کرده و آن‌ها را برای بهبود دقت پیش‌بینی خود تشدید کند.”

او ادامه داد: “ما در اینجا دریافتیم که افرادی که با سیستم‌های هوش مصنوعی متعصب تعامل دارند، ممکن است خودشان نیز حتی بیشتر متعصب شوند. این می‌تواند یک اثر برفکی ایجاد کند که در آن تعصبات جزئی در مجموعه‌های داده اولیه توسط هوش مصنوعی تشدید می‌شوند و تعصبا فردی که از هوش مصنوعی استفاده می‌کند، افزایش می‌یابد.”

تصویری از گروهی از افراد با پیشرفت‌های هوش مصنوعی در یک فضای اداری مدرن که نشان‌دهنده تعصبات انسانی است.
تأثیر سیستم‌های هوش مصنوعی بر تعاملات انسانی و چالش‌های مربوط به تعصبات.

محققان یک سری آزمایشات با بیش از ۱۲۰۰ شرکت‌کننده انجام دادند که در حال انجام وظایف و تعامل با سیستم‌های هوش مصنوعی بودند. به عنوان پیش‌زمینه یکی از آزمایشات، محققان یک الگوریتم هوش مصنوعی را بر اساس مجموعه داده‌ای از پاسخ‌های شرکت‌کنندگان آموزش دادند. از افراد خواسته شد تا قضاوت کنند که آیا یک گروه از چهره‌ها در یک عکس خوشحال یا ناراحت به نظر می‌رسند. آن‌ها تمایل کمتری به قضاوت چهره‌ها به عنوان ناراحت بیشتر از خوشحال نشان دادند. هوش مصنوعی این تعصب را یاد گرفت و آن را به تعصبی بزرگ‌تر در قضاوت چهره‌ها به عنوان ناراحت تشدید کرد.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول

سپس گروه دیگری از شرکت‌کنندگان همان وظیفه را انجام دادند، اما به آن‌ها گفته شد که هوش مصنوعی برای هر عکس چه قضاوتی کرده است. پس از تعامل با این سیستم هوش مصنوعی برای مدتی، این گروه از افراد تعصب هوش مصنوعی را درونی کردند و احتمال بیشتری داشتند که بگویند چهره‌ها ناراحت به نظر می‌رسند، نسبت به قبل از تعامل با هوش مصنوعی.

تأثیر تعصبات هوش مصنوعی بر قضاوت‌های انسانی

این موضوع نشان می‌دهد که هوش مصنوعی از یک مجموعه داده‌های انسانی تعصب‌آمیز یاد گرفته و سپس تعصبات ذاتی گروه دیگری از افراد را تشدید کرده است. محققان نتایج مشابهی را در آزمایش‌هایی با وظایف بسیار متفاوت، از جمله ارزیابی جهت حرکت مجموعه‌ای از نقاط روی صفحه نمایش یا ارزیابی عملکرد یک فرد در یک وظیفه، به‌دست آوردند. در این آزمایش‌ها، افراد به‌ویژه تمایل داشتند عملکرد مردان را پس از تعامل با یک سیستم هوش مصنوعی تعصب‌آمیز، که با تعصب جنسیتی ذاتی طراحی شده بود تا تعصبات بسیاری از هوش‌های مصنوعی موجود را تقلید کند، بیش از حد ارزیابی کنند. شرکت‌کنندگان به‌طور کلی از میزان تأثیر هوش مصنوعی بی‌خبر بودند.

تصویری انتزاعی از تعصبات انسانی که از طریق الگوریتم‌های هوش مصنوعی تجلی پیدا می‌کند.
نمود تحلیلی از چگونگی تأثیر هوش مصنوعی بر تعصبات انسانی.

زمانی که به افراد به‌طور نادرست گفته می‌شد که با یک فرد دیگر در حال تعامل هستند، در حالی که در واقع با یک هوش مصنوعی در حال تعامل بودند، آن‌ها به میزان کمتری تعصبات را درونی می‌کردند. محققان می‌گویند این ممکن است به این دلیل باشد که مردم انتظار دارند هوش مصنوعی در برخی وظایف دقیق‌تر از انسان باشد. محققان همچنین آزمایش‌هایی با یک سیستم هوش مصنوعی تولیدی پرکاربرد به نام Stable Diffusion انجام دادند. در یکی از آزمایش‌ها، از هوش مصنوعی خواسته شد تا عکس‌هایی از مدیران مالی تولید کند که نتایج تعصب‌آمیزی به همراه داشت زیرا مردان سفیدپوست بیش از سهم واقعی خود نمایان شدند.

پس از آن، از شرکت‌کنندگان خواسته شد مجموعه‌ای از عکس‌های پرتره را مشاهده کرده و انتخاب کنند که کدام فرد احتمالاً مدیر مالی است، پیش از مشاهده تصاویر تولید شده توسط هوش مصنوعی و پس از آن. محققان دریافتند که شرکت‌کنندگان پس از مشاهده تصاویر تولید شده توسط Stable Diffusion، تمایل بیشتری به نشان دادن این داشتند که یک مرد سفیدپوست احتمالاً مدیر مالی است نسبت به قبل از مشاهده این تصاویر.

تصویری از دو سناریو در کنار هم: یک قضاوت مطمئن در برابر یک قضاوت متعصب به‌واسطه هوش مصنوعی.
تفاوت قضاوت میان اطلاعات بی‌طرف و اطلاعات متعصب هوش مصنوعی.

دکتر موشه گلیکمن، نویسنده اصلی این تحقیق از دانشگاه UCL و مرکز ماکس پلانک UCL برای روانپزشکی محاسباتی و تحقیقات پیری، گفت: “نه تنها افراد تعصب‌آمیز به ایجاد هوش‌های مصنوعی تعصب‌آمیز کمک می‌کنند، بلکه سیستم‌های هوش مصنوعی تعصب‌آمیز می‌توانند باورهای خود افراد را تغییر دهند، به‌طوری که افرادی که از ابزارهای هوش مصنوعی استفاده می‌کنند ممکن است در زمینه‌هایی از قضاوت‌های اجتماعی تا ادراکات پایه‌ای، تعصب بیشتری پیدا کنند.” او افزود: “مهم است که ما همچنین دریافتیم تعامل با هوش‌های مصنوعی دقیق می‌تواند قضاوت‌های افراد را بهبود بخشد، بنابراین ضروری است که سیستم‌های هوش مصنوعی به‌گونه‌ای اصلاح شوند که تا حد ممکن غیرتعصب‌آمیز و دقیق باشند.”

پروفسور شاروط نیز اضافه کرد: “توسعه‌دهندگان الگوریتم مسئولیت بزرگی در طراحی سیستم‌های هوش مصنوعی دارند؛ زیرا تأثیر تعصبات هوش مصنوعی می‌تواند پیامدهای عمیقی داشته باشد، به‌خصوص که هوش مصنوعی به‌طور فزاینده‌ای در بسیاری از جنبه‌های زندگی ما رایج می‌شود.”

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *