taser-hosh-masnoi-bar-taasobaat انسانى

تأثیر هوش مصنوعی بر تعصبات انسانی

یک مطالعه جدید توسط محققان دانشگاه UCL نشان می‌دهد که سیستم‌های هوش مصنوعی (AI) تمایل دارند تعصبات انسانی را به خود بگیرند و آن‌ها را تشدید کنند. این امر موجب می‌شود افرادی که از این هوش مصنوعی استفاده می‌کنند، خود نیز تعصب بیشتری پیدا کنند. بر اساس یافته‌های منتشرشده در مجله Nature Human Behaviour، تعصبات انسانی و هوش مصنوعی می‌توانند یک چرخه بازخورد ایجاد کنند که در آن تعصبات اولیه کوچک، خطر خطای انسانی را افزایش می‌دهد.

محققان نشان دادند که تعصب در هوش مصنوعی می‌تواند عواقب واقعی داشته باشد. آن‌ها دریافتند که افرادی که با هوش مصنوعی تعصب‌آمیز تعامل دارند، بیشتر احتمال دارد که عملکرد زنان را دست کم بگیرند و احتمال موفقیت مردان سفیدپوست در مشاغل با وضعیت بالا را بیش از حد برآورد کنند. پروفسور Tali Sharot، یکی از نویسندگان اصلی این تحقیق از دانشگاه UCL، بیان کرد: “انسان‌ها به طور ذاتی تعصب دارند، بنابراین وقتی ما سیستم‌های هوش مصنوعی را با مجموعه‌های دادهای که توسط انسان‌ها تولید شده‌اند، آموزش می‌دهیم، الگوریتم‌های هوش مصنوعی تعصبات انسانی موجود در داده‌ها را یاد می‌گیرند. سپس هوش مصنوعی تمایل دارد این تعصبات را برای بهبود دقت پیش‌بینیهای خود، بهره‌برداری و تشدید کند.”

او ادامه داد: “ما در اینجا دریافتیم که افرادی که با سیستم‌های هوش مصنوعی تعصب‌آمیز تعامل دارند، خود نیز ممکن است حتی بیشتر تعصب پیدا کنند و این می‌تواند یک اثر برفکی ایجاد کند که در آن تعصبات جزئی در مجموعه‌های داده اولیه توسط هوش مصنوعی تشدید می‌شود و تعصبات فردی که از هوش مصنوعی استفاده می‌کند را افزایش می‌دهد.”

محیط اداری مدرن با حرفه‌ای‌های متنوع در حال تعامل با سیستم‌های هوش مصنوعی.
تعاملی نوآورانه بین حرفه‌ای‌ها و هوش مصنوعی در یک محیط مدرن.

روش تحقیق و نتایج

محققان یک سری آزمایش‌ها را با بیش از ۱۲۰۰ شرکت‌کننده انجام دادند که در حال انجام وظایف و تعامل با سیستم‌های هوش مصنوعی بودند. به عنوان مقدمه‌ای برای یکی از آزمایش‌ها، محققان یک الگوریتم هوش مصنوعی را بر روی مجموعه داده‌ای از پاسخ‌های شرکت‌کنندگان آموزش دادند. از افراد خواسته شد تا قضاوت کنند که آیا یک گروه از چهره‌ها در یک عکس شاد به نظر می‌رسند یا غمگین. آن‌ها تمایل کمی به قضاوت چهره‌ها به عنوان غمگین بیشتر از شاد نشان دادند. هوش مصنوعی این تعصب را یاد گرفت و آن را به تعصبی بزرگ‌تر در قضاوت چهره‌ها به عنوان غمگین تشدید کرد.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با انیمیشن

سپس گروه دیگری از شرکت‌کنندگان همان وظیفه را انجام دادند، اما به آن‌ها گفته شد که هوش مصنوعی برای هر عکس چه قضاوتی کرده است. پس از تعامل با این سیستم هوش مصنوعی به مدت مدتی، این گروه از افراد تعصب هوش مصنوعی را درونی کردند و احتمال بیشتری داشتند که بگویند چهره‌ها غمگین به نظر می‌رسند، نسبت به قبل از تعامل با هوش مصنوعی.

تأثیر تعصبات انسانی بر سیستم‌های هوش مصنوعی

این موضوع نشان می‌دهد که هوش مصنوعی از یک مجموعه داده‌های انسانی تعصب آموخته و سپس تعصبات ذاتی گروه دیگری از مردم را تشدید کرده است. محققان در آزمایش‌هایی با وظایف بسیار متفاوت، نتایج مشابهی را یافتند. این وظایف شامل ارزیابی جهت حرکت مجموعه‌ای از نقاط روی صفحه نمایش و به‌ویژه ارزیابی عملکرد یک فرد در یک وظیفه بود. در اینجا، افراد به‌ویژه تمایل داشتند تا عملکرد مردان را پس از تعامل با یک سیستم هوش مصنوعی تعصب‌دار، که با تعصب جنسیتی ذاتی برای تقلید از تعصبات بسیاری از هوش‌های مصنوعی موجود ایجاد شده بود، بیش از حد تخمین بزنند.

تصویری انتزاعی از تعصبات انسانی که توسط الگوریتم‌های هوش مصنوعی تشدید می‌شود.
نموداری از چگونگی تاثیر تعصبات انسانی بر هوش مصنوعی.

شرکت‌کنندگان به‌طور کلی از میزان تأثیر هوش مصنوعی آگاه نبودند. زمانی که به افراد به‌طور نادرست گفته می‌شد که با یک فرد دیگر در حال تعامل هستند، در حالی که در واقع با یک هوش مصنوعی در حال تعامل بودند، تعصبات را به میزان کمتری درونی می‌کردند. محققان می‌گویند این ممکن است به این دلیل باشد که مردم انتظار دارند هوش مصنوعی در برخی وظایف دقیق‌تر از انسان باشد.

محققان همچنین آزمایش‌هایی با یک سیستم هوش مصنوعی تولیدی پرکاربرد به نام Stable Diffusion انجام دادند. در یکی از آزمایش‌ها، محققان از هوش مصنوعی خواستند تا عکس‌هایی از مدیران مالی تولید کند که نتایج تعصب‌آمیزی به همراه داشت، زیرا مردان سفیدپوست به‌طور غیرمتناسبی بیشتر از سهم واقعی خود نمایان شدند. سپس از شرکت‌کنندگان خواسته شد تا یک سری عکس‌های پرتره را مشاهده کرده و مشخص کنند کدام فرد احتمالاً مدیر مالی است، قبل و بعد از مشاهده تصاویری که توسط هوش مصنوعی تولید شده بود. محققان دریافتند که شرکت‌کنندگان پس از مشاهده تصاویر تولید شده توسط Stable Diffusion، بیشتر تمایل داشتند که یک مرد سفیدپوست را به‌عنوان مدیر مالی معرفی کنند.

گروه متنوعی از افراد در حال بررسی تصاویر تولیدشده توسط هوش مصنوعی از حرفه‌ای‌های مالی.
بررسی تصاویر هوش مصنوعی و تاثیر آنها بر نگرش افراد.

دکتر موشه گلیکمن، نویسنده همکار این تحقیق از دانشگاه UCL و مرکز تحقیقات روانشناسی و زبان و مرکز تحقیقات محاسباتی روانپزشکی و پیری ماکس پلانک، گفت: «نه تنها افراد تعصب‌دار به ایجاد هوش‌های مصنوعی تعصب‌دار کمک می‌کنند، بلکه سیستم‌های هوش مصنوعی تعصب‌دار می‌توانند باورهای خود افراد را تغییر دهند، به‌طوری که افرادی که از ابزارهای هوش مصنوعی استفاده می‌کنند، ممکن است در زمینه‌هایی از قضاوت‌های اجتماعی تا ادراکات پایه‌ای، بیشتر تعصب‌دار شوند.»

او افزود: «مهم است که ما همچنین دریافتیم که تعامل با هوش‌های مصنوعی دقیق می‌تواند قضاوت‌های افراد را بهبود بخشد، بنابراین ضروری است که سیستم‌های هوش مصنوعی به‌گونه‌ای اصلاح شوند که تا حد امکان بدون تعصب و دقیق باشند.»

پروفسور شاروط اضافه کرد: «توسعه‌دهندگان الگوریتم مسئولیت بزرگی در طراحی سیستم‌های هوش مصنوعی دارند؛ تأثیر تعصبات هوش مصنوعی می‌تواند پیامدهای عمیقی داشته باشد، زیرا هوش مصنوعی به‌طور فزاینده‌ای در بسیاری از جنبه‌های زندگی ما رایج می‌شود.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *