تأثیر هوش مصنوعی بر تعصبات انسانی
یک مطالعه جدید توسط محققان دانشگاه UCL نشان میدهد که سیستمهای هوش مصنوعی (AI) تمایل دارند تعصبات انسانی را به خود بگیرند و آنها را تشدید کنند. این امر باعث میشود افرادی که از این هوش مصنوعی استفاده میکنند، خودشان نیز بیشتر متعصب شوند. به گفته یافتههای منتشر شده در مجله Nature Human Behaviour، تعصبات انسانی و هوش مصنوعی میتوانند یک چرخه بازخورد ایجاد کنند که در آن تعصبات اولیه کوچک، خطر خطای انسانی را افزایش میدهند.
محققان نشان دادند که تعصب در هوش مصنوعی میتواند عواقب واقعی داشته باشد. آنها دریافتند افرادی که با هوش مصنوعی متعصب تعامل داشتند، بیشتر احتمال داشت که عملکرد زنان را دست کم بگیرند و احتمال موفقیت مردان سفیدپوست در مشاغل با وضعیت بالا را بیش از حد ارزیابی کنند. پروفسور Tali Sharot، نویسنده همکار این تحقیق از دانشگاه UCL، گفت: “انسانها ذاتاً متعصب هستند، بنابراین زمانی که ما سیستمهای هوش مصنوعی را بر اساس مجموعههای دادهای که توسط انسانها تولید شدهاند آموزش میدهیم، الگوریتمهای هوش مصنوعی تعصبات انسانی موجود در دادهها را یاد میگیرند. سپس هوش مصنوعی تمایل دارد از این تعصبات بهرهبرداری کرده و آنها را برای بهبود دقت پیشبینی خود تشدید کند.”
او ادامه داد: “ما در اینجا دریافتیم که افرادی که با سیستمهای هوش مصنوعی متعصب تعامل دارند، ممکن است خودشان نیز حتی بیشتر متعصب شوند. این میتواند یک اثر برفکی ایجاد کند که در آن تعصبات جزئی در مجموعههای داده اولیه توسط هوش مصنوعی تشدید میشوند و تعصبا فردی که از هوش مصنوعی استفاده میکند، افزایش مییابد.”
محققان یک سری آزمایشات با بیش از ۱۲۰۰ شرکتکننده انجام دادند که در حال انجام وظایف و تعامل با سیستمهای هوش مصنوعی بودند. به عنوان پیشزمینه یکی از آزمایشات، محققان یک الگوریتم هوش مصنوعی را بر اساس مجموعه دادهای از پاسخهای شرکتکنندگان آموزش دادند. از افراد خواسته شد تا قضاوت کنند که آیا یک گروه از چهرهها در یک عکس خوشحال یا ناراحت به نظر میرسند. آنها تمایل کمتری به قضاوت چهرهها به عنوان ناراحت بیشتر از خوشحال نشان دادند. هوش مصنوعی این تعصب را یاد گرفت و آن را به تعصبی بزرگتر در قضاوت چهرهها به عنوان ناراحت تشدید کرد.
📢 اگر عاشق علم هستید و نمیخواهید هیچ مقالهای را از دست بدهید…
به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر میشوند.
📲 عضویت در کانال تلگرام🎨 ربات رایگان ساخت عکس با هوش مصنوعی
با ربات @ai_photo_bbot، هر متنی را به تصویر تبدیل کنید! 🚀
ربات کاملاً رایگان است و منتظر ایدههای جذاب شماست. 🌟
سپس گروه دیگری از شرکتکنندگان همان وظیفه را انجام دادند، اما به آنها گفته شد که هوش مصنوعی برای هر عکس چه قضاوتی کرده است. پس از تعامل با این سیستم هوش مصنوعی برای مدتی، این گروه از افراد تعصب هوش مصنوعی را درونی کردند و احتمال بیشتری داشتند که بگویند چهرهها ناراحت به نظر میرسند، نسبت به قبل از تعامل با هوش مصنوعی.
تأثیر تعصبات هوش مصنوعی بر قضاوتهای انسانی
این موضوع نشان میدهد که هوش مصنوعی از یک مجموعه دادههای انسانی تعصبآمیز یاد گرفته و سپس تعصبات ذاتی گروه دیگری از افراد را تشدید کرده است. محققان نتایج مشابهی را در آزمایشهایی با وظایف بسیار متفاوت، از جمله ارزیابی جهت حرکت مجموعهای از نقاط روی صفحه نمایش یا ارزیابی عملکرد یک فرد در یک وظیفه، بهدست آوردند. در این آزمایشها، افراد بهویژه تمایل داشتند عملکرد مردان را پس از تعامل با یک سیستم هوش مصنوعی تعصبآمیز، که با تعصب جنسیتی ذاتی طراحی شده بود تا تعصبات بسیاری از هوشهای مصنوعی موجود را تقلید کند، بیش از حد ارزیابی کنند. شرکتکنندگان بهطور کلی از میزان تأثیر هوش مصنوعی بیخبر بودند.
زمانی که به افراد بهطور نادرست گفته میشد که با یک فرد دیگر در حال تعامل هستند، در حالی که در واقع با یک هوش مصنوعی در حال تعامل بودند، آنها به میزان کمتری تعصبات را درونی میکردند. محققان میگویند این ممکن است به این دلیل باشد که مردم انتظار دارند هوش مصنوعی در برخی وظایف دقیقتر از انسان باشد. محققان همچنین آزمایشهایی با یک سیستم هوش مصنوعی تولیدی پرکاربرد به نام Stable Diffusion انجام دادند. در یکی از آزمایشها، از هوش مصنوعی خواسته شد تا عکسهایی از مدیران مالی تولید کند که نتایج تعصبآمیزی به همراه داشت زیرا مردان سفیدپوست بیش از سهم واقعی خود نمایان شدند.
پس از آن، از شرکتکنندگان خواسته شد مجموعهای از عکسهای پرتره را مشاهده کرده و انتخاب کنند که کدام فرد احتمالاً مدیر مالی است، پیش از مشاهده تصاویر تولید شده توسط هوش مصنوعی و پس از آن. محققان دریافتند که شرکتکنندگان پس از مشاهده تصاویر تولید شده توسط Stable Diffusion، تمایل بیشتری به نشان دادن این داشتند که یک مرد سفیدپوست احتمالاً مدیر مالی است نسبت به قبل از مشاهده این تصاویر.
دکتر موشه گلیکمن، نویسنده اصلی این تحقیق از دانشگاه UCL و مرکز ماکس پلانک UCL برای روانپزشکی محاسباتی و تحقیقات پیری، گفت: “نه تنها افراد تعصبآمیز به ایجاد هوشهای مصنوعی تعصبآمیز کمک میکنند، بلکه سیستمهای هوش مصنوعی تعصبآمیز میتوانند باورهای خود افراد را تغییر دهند، بهطوری که افرادی که از ابزارهای هوش مصنوعی استفاده میکنند ممکن است در زمینههایی از قضاوتهای اجتماعی تا ادراکات پایهای، تعصب بیشتری پیدا کنند.” او افزود: “مهم است که ما همچنین دریافتیم تعامل با هوشهای مصنوعی دقیق میتواند قضاوتهای افراد را بهبود بخشد، بنابراین ضروری است که سیستمهای هوش مصنوعی بهگونهای اصلاح شوند که تا حد ممکن غیرتعصبآمیز و دقیق باشند.”
پروفسور شاروط نیز اضافه کرد: “توسعهدهندگان الگوریتم مسئولیت بزرگی در طراحی سیستمهای هوش مصنوعی دارند؛ زیرا تأثیر تعصبات هوش مصنوعی میتواند پیامدهای عمیقی داشته باشد، بهخصوص که هوش مصنوعی بهطور فزایندهای در بسیاری از جنبههای زندگی ما رایج میشود.”
بیشتر بخوانید
مدیتیشن یک روز پربرکت برای جذب عشق وامنیت و سلامتی
خود هیپنوتیزم درمان زود انزالی در مردان توسط هیپنوتراپیست رضا خدامهری
تقویت سیستم ایمنی بدن با خود هیپنوتیزم
شمس و طغری
خود هیپنوتیزم ماندن در رژیم لاغری و درمان قطعی چاقی کاملا علمی و ایمن
خود هیپنوتیزم تقویت اعتماد به نفس و عزت نفس