تأثیر سوگیریهای انسانی روی هوش مصنوعی و عواقبش
یه تحقیق تازه که توسط دانشمندای دانشگاه UCL انجام شده، نشون میده که سیستمهای هوش مصنوعی (AI) استعداد دارن که سوگیریهای انسانی رو بگیرن و حتی پررنگترش کنن. این قضیه باعث میشه افرادی که از این هوش مصنوعی استفاده میکنن هم، خودشون بیشتر دچار سوگیری بشن. بر اساس نتیجهگیریهایی که تو مجلهی Nature Human Behaviour چاپ شده، سوگیریهای آدمها و هوش مصنوعی میتونن یه چرخهی بازخوردی بسازن، بهطوری که سوگیریهای کوچیکِ اولیهی کار، خطر اشتباهات انسانی رو بیشتر میکنن.
محققها فهمیدن که سوگیریِ هوش مصنوعی میتونه عواقب جدی تو دنیای واقعی داشته باشه. اینا متوجه شدن که افرادی که با هوش مصنوعیِ دارایِ سوگیری سروکار دارن، احتمال کمارزش دونستنِ کاراییِ خانوما و احتمال بیشازحد تخمین زدنِ رسیدنِ مردای سفیدپوست به موقعیتای شغلیِ خوب رو بیشتر دارن. پروفسور تالی شاروط، که یکی از نویسندههای این تحقیق از دانشگاه UCL هست، گفت: «انسانها ذاتا سوگیری دارن، واسه همین وقتی ما سیستمهای هوش مصنوعی رو بر اساس یه سری داده که توسط خودِ آدما ساخته شدن آموزش میدیم، الگوریتمهای هوش مصنوعی همون سوگیریای انسانی که تو اون دادهها هست رو یاد میگیرن. بعدش هم هوش مصنوعی این تمایل رو داره که از این سوگیریها استفاده کنه و پررنگترش کنه، تا دقتِ پیشبینیهاش بهتر بشه.»

اون اضافه کرد: «تو این تحقیق، ما متوجه شدیم که افرادی که با سیستمهای هوش مصنوعیِ دارای سوگیری کار میکنن، خودشون هم میتونن حتی بیشتر دچار سوگیری بشن و این میتونه یه اثرِ «گلوله برفی» ایجاد کنه؛ یعنی سوگیریهای کوچیکِ اولیهی موجود تو دادهها، توسط هوش مصنوعی بزرگتر میشن و در نتیجه، سوگیریِ خودِ آدمی هم که از هوش مصنوعی استفاده میکنه، بیشتر میشه.»
محققها یه سری آزمایش رو با بیش از ۱۲۰۰ نفر شرکتکننده انجام دادن. این افراد مشغول انجام وظایفی بودن و با سیستمهای هوش مصنوعی تعامل داشتن. بهعنوان مقدمه برای یکی از آزمایشا، محققها یه الگوریتم هوش مصنوعی رو براساس مجموعهای از پاسخهای شرکتکنندهها آموزش دادن. از افراد خواسته میشد که قضاوت کنن آیا یه گروه از چهرهها تو یه عکس خوشحال بهنظر میرسن یا ناراحت و اینا تمایلِ کمی به این داشتن که چهرهها رو ناراحت قضاوت کنن. هوش مصنوعی این سوگیری رو یاد گرفت و بعدش اون رو تبدیل به یه سوگیریِ بزرگتر کرد، به این صورت که چهرهها رو ناراحتتر قضاوت میکرد.
📢 اگر عاشق علم هستید و نمیخواهید هیچ مقالهای را از دست بدهید…
به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر میشوند.
📲 عضویت در کانال تلگرام🎨 ربات رایگان ساخت عکس با هوش مصنوعی
با ربات @ai_photo_bbot، هر متنی را به تصویر تبدیل کنید! 🚀
ربات کاملاً رایگان است و منتظر ایدههای جذاب شماست. 🌟
گروهِ دیگهای از شرکتکنندهها همون وظیفه رو انجام دادن، ولی بهشون گفته شده بود که هوش مصنوعی برای هر عکس چه قضاوتی کرده. بعد از یه مدت تعامل با این سیستم هوش مصنوعی، این گروه از افراد سوگیریِ هوش مصنوعی رو درونیش کردن و احتمال بیشتری داشت که بگن چهرهها ناراحت بهنظر میرسن، نسبت به قبل از اینکه با هوش مصنوعی کار کنن.

تأثیر سوگیریهای انسانی روی هوش مصنوعی
این موضوع نشون میده که هوش مصنوعی از یه مجموعهداده که توسط آدما درست شده، سوگیریهایی رو یاد میگیره و بعد، سوگیریهای ذاتی یه گروه دیگه از افراد رو تقویت میکنه. محققها نتایج مشابهی رو تو آزمایشهای مختلف دیدن، مثلا توی ارزیابیِ جهتِ حرکتِ چندتا نقطه روی صفحه نمایش یا ارزیابیِ عملکردِ یه نفر تو یه وظیفهی خاص. تو این مورد، افراد بعد از کار کردن با یه سیستم هوش مصنوعیِ دارای سوگیری، تمایل بیشتری به بزرگنماییِ عملکردِ مردها داشتن (این سیستم با سوگیریِ جنسیتیِ ذاتی طراحی شده بود تا سوگیریهای خیلی از هوشهای مصنوعیِ موجود رو تقلید کنه). شرکتکنندهها بهطور کلی از میزانِ تاثیرِ هوش مصنوعی خبر نداشتن. وقتی به افراد به دروغ گفته میشد که با یه آدم دیگه دارن تعامل میکنن، درحالیکه در واقع با یه هوش مصنوعی در ارتباط بودن، سوگیریها رو کمتر درونیسازی میکردن. محققها میگن این ممکنه بهخاطر این باشه که آدما انتظار دارن هوش مصنوعی تو بعضی از وظایف، دقت بیشتری نسبت به آدما داشته باشه.
محققها همچنین آزمایشهایی با یه سیستم هوش مصنوعیِ تولیدی پرکاربرد به اسم Stable Diffusion انجام دادن. تو یکی از این آزمایشها، محققها از هوش مصنوعی خواستن که عکسهایی از مدیرای مالی بسازه که نتایج دارای سوگیری داشت؛ چون مردای سفیدپوست، بیشتر از سهم واقعیشون دیده میشدن. بعد از شرکتکنندهها خواسته شد که یه سری عکس پرتره رو ببینن و انتخاب کنن که کدوم آدم، احتمالاً مدیر مالی هست، قبل و بعد از اینکه عکسهایی که توسط هوش مصنوعی ساخته شده بود رو ببینن. محققها فهمیدن که شرکتکنندهها بعد از دیدن عکسهایی که توسط Stable Diffusion ساخته شده بود، تمایل بیشتری به این داشتن که یه مرد سفیدپوست احتمالاً مدیر مالیه.

دکتر موشه گلیگمن، که یکی از نویسندههای این تحقیق هست (از دانشگاه UCL، تو رشتهی روانشناسی و علوم زبان و مرکز مکس پلانک UCL برای روانپزشکیِ محاسباتی و تحقیقاتِ پیری) گفت: «نه تنها افرادِ دارای سوگیری، به ساختنِ هوş مصنوعیهای دارای سوگیری کمک میکنن، بلکه سیستمهای هوş مصنوعیِ دارای سوگیری میتونن باورهای افراد رو تغییر بدن، بهطوری که افرادی که از ابزارهای هوş مصنوعی استفاده میکنن، ممکنه تو زمینههایی از قضاوتای اجتماعی تا درکهای پایهای، سوگیریِ بیشتری پیدا کنن.» اون اضافه کرد: «اینم مهمه که ما فهمیدیم، تعامل با هوş مصنوعیهای دقیق میتونه قضاوتا رو تو آدما بهتر کنه، واسه همین لازمه که سیستمهای هوş مصنوعی طوری اصلاح بشن که تا حد ممکن عاری از سوگیری و دقیق باشن.»
پروفسور شاروط هم گفت: «توسعهدهندههای الگوریتم، مسئولیت بزرگی تو طراحی سیستمهای هوş مصنوعی دارن؛ تاثیر سوگیریهای هوş مصنوعی میتونه عواقب خیلی جدی داشته باشه، چون هوş مصنوعی داره روزبهروز بیشتر تو جنبههای مختلف زندگی ما همهگیر میشه.»
بیشتر بخوانید
مدیتیشن یک روز پربرکت برای جذب عشق وامنیت و سلامتی
خود هیپنوتیزم درمان زود انزالی در مردان توسط هیپنوتراپیست رضا خدامهری
تقویت سیستم ایمنی بدن با خود هیپنوتیزم
شمس و طغری
خود هیپنوتیزم ماندن در رژیم لاغری و درمان قطعی چاقی کاملا علمی و ایمن
خود هیپنوتیزم تقویت اعتماد به نفس و عزت نفس