taser-hosh-masnoi-bar-taasobaat انسانى

هوش مصنوعی و سایه‌ی جانب‌داری‌های انسانی

تحقیقی نو از پژوهشگران دانشگاه UCL نشان می‌دهد که سامانه‌های هوش مصنوعی (AI) تمایل دارند جانب‌داری‌های انسانی را به خود بگیرند، و حتی آنها را تقویت کنند. این مسئله باعث می‌شود کسانی که از این هوش مصنوعی استفاده می‌کنند، خودشان هم دچار تعصب بیشتر شوند. طبق نتایجی که در مجله‌ی Nature Human Behaviour منتشر شده، جانب‌داری‌های انسانی و هوش مصنوعی می‌توانند یک چرخه‌ی واکنشی ایجاد کنند که در آن، سوگیری‌های اولیه‌ی کوچک، خطر خطای انسانی را افزایش می‌دهد.

محققان نشان دادند که جانب‌داری در هوش مصنوعی می‌تواند عواقب واقعی داشته باشد. آنها متوجه شدند که افرادی که با هوش مصنوعی جانب‌دارانه‌ای تعامل دارند، احتمال بیشتری دارند که عملکرد زنان را کم‌اهمیت ببینند و شانس موفقیت مردان سفیدپوست در مشاغل با جایگاه بالا را بیش از حد ارزیابی کنند. پروفسور تالی شاروت، یکی از نویسندگان اصلی این پژوهش از دانشگاه UCL، توضیح داد: «انسان‌ها ذاتا گرایش به جانب‌داری دارند، بنابراین وقتی ما سامانه‌های هوش مصنوعی را با مجموعه‌های دادهای که توسط انسان‌ها تولید شده‌اند آموزش می‌دهیم، الگوریتم‌های هوش مصنوعی، جانب‌داری‌های انسانی موجود در داده‌ها را یاد می‌گیرند. در ادامه، هوش مصنوعی تمایل دارد این جانب‌داری‌ها را برای بهبود دقت پیش‌بینی هایش، به کار گیرد و آن‌ها را قوی‌تر کند.»

او ادامه داد: «در اینجا متوجه شدیم که کسانی که با سامانه‌های هوش مصنوعی جانب‌دارانه تعامل دارند، خودشان هم ممکن است دچار جانب‌داری بیشتری شوند، و این می‌تواند یک اثر بهمنی ایجاد کند که در آن جانب‌داری‌های محدود در مجموعه‌های داده‌ی اولیه، توسط هوش مصنوعی تقویت می‌شود و جانب‌داری‌های شخصی که از هوش مصنوعی استفاده می‌کند را افزایش می‌دهد.»

محیط اداری مدرن با حرفه‌ای‌های متنوع در حال تعامل با سیستم‌های هوش مصنوعی.
همکاری خلاقانه میان متخصصان و هوش مصنوعی در یک محیط پویا.

روش تحقیق و یافته‌ها

محققان یک سری آزمایش‌ها را با بیش از ۱۲۰۰ شرکت‌کننده انجام دادند که در حال انجام وظایف و تعامل با سیستم‌های هوش مصنوعی بودند. برای آشنایی با یکی از آزمایش‌ها، محققان یک الگوریتم هوش مصنوعی را بر روی مجموعه‌ای از پاسخ‌های شرکت‌کنندگان آموزش دادند. از افراد خواسته شد تا قضاوت کنند که آیا یک سری چهره‌ها در یک عکس خوشحال به نظر می‌رسند یا ناراحت. آن‌ها تمایل کمی به قضاوت چهره‌ها به عنوان ناراحت بیشتر از خوشحال نشان دادند. هوش مصنوعی این سوگیری را یاد گرفت و آن را به تعصبی بزرگ‌تر در قضاوت چهره‌ها به عنوان ناراحت، تبدیل کرد.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول

سپس گروه دیگری از شرکت‌کنندگان همان کار را انجام دادند، اما به آن‌ها گفته شد که هوش مصنوعی برای هر عکس چه قضاوتی کرده است. پس از مدتی تعامل با این سیستم هوش مصنوعی، این گروه از افراد جانب‌داری هوش مصنوعی را درونی کردند و نسبت به قبل از تعامل با هوش مصنوعی، احتمال بیشتری داشت که بگویند چهره‌ها ناراحت به نظر می‌رسند.

تأثیر جانب‌داری‌های انسانی بر سامانه‌های هوش مصنوعی

این موضوع نشان می‌دهد که هوش مصنوعی از یک مجموعه‌ی داده‌های انسانی، یاد گرفته و بعد جانب‌داری‌های ذاتی یک گروه دیگر از مردم را شدت بخشیده است. محققان در آزمایش‌هایی با تکالیف بسیار متفاوت، نتایج مشابهی را یافتند. این تکالیف شامل ارزیابی جهت حرکت تعدادی نقطه روی صفحه نمایش و به ویژه ارزیابی عملکرد یک فرد در یک کار بود. در اینجا، افراد به‌خصوص تمایل داشتند پس از تعامل با یک سامانه هوش مصنوعی جانب‌دار، که با یک تعصب جنسیتی ذاتی برای تقلید از تعصبات بسیاری از هوش‌های مصنوعی موجود ساخته شده بود، عملکرد مردان را بیش از حد تخمین بزنند.

تصویری انتزاعی از تعصبات انسانی که توسط الگوریتم‌های هوش مصنوعی تشدید می‌شود.
یک نمودار برای نمایش چگونگی تأثیر سوگیری های انسانی بر هوش مصنوعی.

شرکت‌کنندگان به‌طور کلی از میزان تأثیر هوش مصنوعی بی‌خبر بودند. وقتی به افراد به اشتباه گفته می‌شد که با یک نفر در حال تعامل هستند، در حالی که واقعاً با یک هوش مصنوعی سروکار داشتند، جانب‌داری‌ها را کمتر درونی می‌کردند. محققان می‌گویند این ممکن است به این دلیل باشد که مردم انتظار دارند هوش مصنوعی در برخی کارها دقیق‌تر از انسان باشد.

محققان همچنین آزمایش‌هایی با یک سامانه هوش مصنوعی تولیدی پرکاربرد به نام Stable Diffusion انجام دادند. در یکی از آزمایش‌ها، محققان از هوش مصنوعی خواستند تا عکس‌هایی از مدیران مالی تولید کند که نتایج جانب‌دارانه‌ای در پی داشت، زیرا مردان سفیدپوست به طور نامتناسبی بیشتر از سهم واقعی خود نشان داده می‌شدند. سپس از شرکت‌کنندگان خواسته شد مجموعه‌ای عکس‌های پرتره را ببینند و مشخص کنند کدام فرد احتمالاً مدیر مالی است، قبل و بعد از دیدن تصاویری که توسط هوش مصنوعی تولید شده بود. محققان دریافتند که شرکت‌کنندگان بعد از مشاهده عکس‌های تولید شده توسط Stable Diffusion، بیشتر احتمال داشت که یک مرد سفیدپوست را به عنوان مدیر مالی معرفی کنند.

گروه متنوعی از افراد در حال بررسی تصاویر تولیدشده توسط هوش مصنوعی از حرفه‌ای‌های مالی.
بررسی عکس‌های تولید شده توسط هوش مصنوعی و اثر آن بر دیدگاه افراد.

دکتر موشه گلیکمن، نویسنده‌ی همکار این پژوهش از دانشگاه UCL و مرکز تحقیقات روانشناسی و زبان و مرکز تحقیقات محاسباتی روانپزشکی و پیری ماکس پلانک، گفت: «نه تنها افراد جانب‌دار به شکل‌گیری هوش‌های مصنوعی جانب‌دار کمک می‌کنند، بلکه سامانه‌های هوش مصنوعی جانب‌دار می‌توانند باورهای خود افراد را تغییر دهند، به طوری که کسانی که از ابزارهای هوش مصنوعی استفاده می‌کنند، ممکن است در زمینه‌هایی از قضاوت‌های اجتماعی گرفته تا درک‌های بنیادی، جانب‌دارتر شوند.»

او اضافه کرد: «مهم است که ما همچنین متوجه شدیم که تعامل با هوش‌های مصنوعی دقیق می‌تواند قضاوت‌های افراد را بهبود بخشد، بنابراین ضروری است که سامانه‌های هوش مصنوعی به گونه‌ای اصلاح شوند که تا حد امکان بدون جانب‌داری و دقیق باشند.»

پروفسور شاروت اضافه کرد: «توسعه‌دهندگان الگوریتم، مسئولیت بزرگی در طراحی سامانه‌های هوش مصنوعی دارند؛ تأثیر جانب‌داری‌های هوش مصنوعی می‌تواند پیامدهای عمیقی داشته باشد، زیرا هوش مصنوعی به‌طور فزاینده‌ای در بسیاری از جنبه‌های زندگی ما رواج پیدا می‌کند.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *