تعارض-هوش-مصنوعی

تأثیر سوگیری‌های انسانی روی هوش مصنوعی و عواقبش

یه تحقیق تازه که توسط دانشمندای دانشگاه UCL انجام شده، نشون می‌ده که سیستم‌های هوش مصنوعی (AI) استعداد دارن که سوگیری‌های انسانی رو بگیرن و حتی پررنگ‌ترش کنن. این قضیه باعث می‌شه افرادی که از این هوش مصنوعی استفاده می‌کنن هم، خودشون بیشتر دچار سوگیری بشن. بر اساس نتیجه‌گیری‌هایی که تو مجله‌ی Nature Human Behaviour چاپ شده، سوگیری‌های آدم‌ها و هوش مصنوعی می‌تونن یه چرخه‌ی بازخوردی بسازن، به‌طوری که سوگیری‌های کوچیکِ اولیه‌ی کار، خطر اشتباهات انسانی رو بیشتر می‌کنن.

محقق‌ها فهمیدن که سوگیریِ هوش مصنوعی می‌تونه عواقب جدی تو دنیای واقعی داشته باشه. اینا متوجه شدن که افرادی که با هوش مصنوعیِ دارایِ سوگیری سروکار دارن، احتمال کم‌ارزش دونستنِ کاراییِ خانوما و احتمال بیش‌از‌حد تخمین زدنِ رسیدنِ مردای سفیدپوست به موقعیتای شغلیِ خوب رو بیشتر دارن. پروفسور تالی شاروط، که یکی از نویسنده‌های این تحقیق از دانشگاه UCL هست، گفت: «انسان‌ها ذاتا سوگیری دارن، واسه همین وقتی ما سیستم‌های هوش مصنوعی رو بر اساس یه سری داده که توسط خودِ آدما ساخته شدن آموزش می‌دیم، الگوریتم‌های هوش مصنوعی همون سوگیریای انسانی که تو اون داده‌ها هست رو یاد می‌گیرن. بعدش هم هوش مصنوعی این تمایل رو داره که از این سوگیری‌ها استفاده کنه و پررنگ‌ترش کنه، تا دقتِ پیش‌بینی‌هاش بهتر بشه.»

یه محیط تحقیقاتی با محققای متنوع که دارن داده‌ها رو روی صفحه‌ی کامپیوتر بررسی می‌کنن.
تحقیقات علمی در حال بررسی سوگیری‌های انسانی و هوش مصنوعی.

اون اضافه کرد: «تو این تحقیق، ما متوجه شدیم که افرادی که با سیستم‌های هوش مصنوعیِ دارای سوگیری کار می‌کنن، خودشون هم می‌تونن حتی بیشتر دچار سوگیری بشن و این می‌تونه یه اثرِ «گلوله برفی»‌ ایجاد کنه؛ یعنی سوگیری‌های کوچیکِ اولیه‌ی موجود تو داده‌ها، توسط هوش مصنوعی بزرگ‌تر می‌شن و در نتیجه، سوگیریِ خودِ آدمی هم که از هوش مصنوعی استفاده می‌کنه، بیشتر می‌شه.»

محقق‌ها یه سری آزمایش رو با بیش از ۱۲۰۰ نفر شرکت‌کننده انجام دادن. این افراد مشغول انجام وظایفی بودن و با سیستم‌های هوش مصنوعی تعامل داشتن. به‌عنوان مقدمه برای یکی از آزمایشا، محقق‌ها یه الگوریتم هوش مصنوعی رو براساس مجموعه‌ای از پاسخ‌های شرکت‌کننده‌ها آموزش دادن. از افراد خواسته می‌شد که قضاوت کنن آیا یه گروه از چهره‌ها تو یه عکس خوشحال به‌نظر می‌رسن یا ناراحت و اینا تمایلِ کمی به این داشتن که چهره‌ها رو ناراحت قضاوت کنن. هوش مصنوعی این سوگیری رو یاد گرفت و بعدش اون رو تبدیل به یه سوگیریِ بزرگ‌تر کرد، به این صورت که چهره‌ها رو ناراحت‌تر قضاوت می‌کرد.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول

گروهِ دیگه‌ای از شرکت‌کننده‌ها همون وظیفه رو انجام دادن، ولی بهشون گفته شده بود که هوش مصنوعی برای هر عکس چه قضاوتی کرده. بعد از یه مدت تعامل با این سیستم هوش مصنوعی، این گروه از افراد سوگیریِ هوش مصنوعی رو درونیش کردن و احتمال بیشتری داشت که بگن چهره‌ها ناراحت به‌نظر می‌رسن، نسبت به قبل از اینکه با هوش مصنوعی کار کنن.

تصویری از یه نفر که با یه سیستم هوش مصنوعی تعامل داره و داره درباره‌ی احساساتِ روی چهره‌ها قضاوت می‌کنه.
فردی که برای قضاوت درباره‌ی حالت چهره‌ها با هوش مصنوعی تعامل می‌کنه.

تأثیر سوگیری‌های انسانی روی هوش مصنوعی

این موضوع نشون می‌ده که هوش مصنوعی از یه مجموعه‌داده که توسط آدما درست شده، سوگیری‌هایی رو یاد می‌گیره و بعد، سوگیری‌های ذاتی یه گروه دیگه از افراد رو تقویت می‌کنه. محقق‌ها نتایج مشابهی رو تو آزمایش‌های مختلف دیدن، مثلا توی ارزیابیِ جهتِ حرکتِ چندتا نقطه روی صفحه نمایش یا ارزیابیِ عملکردِ یه نفر تو یه وظیفه‌ی خاص. تو این مورد، افراد بعد از کار کردن با یه سیستم هوش مصنوعیِ دارای سوگیری، تمایل بیشتری به بزرگ‌نماییِ عملکردِ مردها داشتن (این سیستم با سوگیریِ جنسیتیِ ذاتی طراحی شده بود تا سوگیری‌های خیلی از هوش‌های مصنوعیِ موجود رو تقلید کنه). شرکت‌کننده‌ها به‌طور کلی از میزانِ تاثیرِ هوش مصنوعی خبر نداشتن. وقتی به افراد به دروغ گفته می‌شد که با یه آدم دیگه دارن تعامل می‌کنن، درحالی‌که در واقع با یه هوش مصنوعی در ارتباط بودن، سوگیری‌ها رو کمتر درونی‌سازی می‌کردن. محقق‌ها می‌گن این ممکنه به‌خاطر این باشه که آدما انتظار دارن هوش مصنوعی تو بعضی از وظایف، دقت بیشتری نسبت به آدما داشته باشه.

محقق‌ها همچنین آزمایش‌هایی با یه سیستم هوش مصنوعیِ تولیدی پرکاربرد به اسم Stable Diffusion انجام دادن. تو یکی از این آزمایش‌ها، محقق‌ها از هوش مصنوعی خواستن که عکس‌هایی از مدیرای مالی بسازه که نتایج دارای سوگیری داشت؛ چون مردای سفیدپوست، بیشتر از سهم واقعی‌شون دیده می‌شدن. بعد از شرکت‌کننده‌ها خواسته شد که یه سری عکس پرتره رو ببینن و انتخاب کنن که کدوم آدم، احتمالاً مدیر مالی هست، قبل و بعد از این‌که عکس‌هایی که توسط هوش مصنوعی ساخته شده بود رو ببینن. محقق‌ها فهمیدن که شرکت‌کننده‌ها بعد از دیدن عکس‌هایی که توسط Stable Diffusion ساخته شده بود، تمایل بیشتری به این داشتن که یه مرد سفیدپوست احتمالاً مدیر مالیه.

تصویری که عدم تعادل تو انتخاب‌ها رو بین گروه‌های مختلف نشون می‌ده.
نشان‌دهنده‌ی سوگیری‌های موجود تو انتخابای انسانی و تاثیر هوش مصنوعی.

دکتر موشه گلیگمن، که یکی از نویسنده‌های این تحقیق هست (از دانشگاه UCL، تو رشته‌ی روان‌شناسی و علوم زبان و مرکز مکس پلانک UCL برای روان‌پزشکیِ محاسباتی و تحقیقاتِ پیری) گفت: «نه تنها افرادِ دارای سوگیری، به ساختنِ هوş مصنوعی‌های دارای سوگیری کمک می‌کنن، بلکه سیستم‌های هوş مصنوعیِ دارای سوگیری می‌تونن باورهای افراد رو تغییر بدن، به‌طوری که افرادی که از ابزارهای هوş مصنوعی استفاده می‌کنن، ممکنه تو زمینه‌هایی از قضاوتای اجتماعی تا درک‌های پایه‌ای، سوگیریِ بیشتری پیدا کنن.» اون اضافه کرد: «اینم مهمه که ما فهمیدیم، تعامل با هوş مصنوعی‌های دقیق می‌تونه قضاوتا رو تو آدما بهتر کنه، واسه همین لازمه که سیستم‌های هوş مصنوعی طوری اصلاح بشن که تا حد ممکن عاری از سوگیری و دقیق باشن.»

پروفسور شاروط هم گفت: «توسعه‌دهنده‌های الگوریتم، مسئولیت بزرگی تو طراحی سیستم‌های هوş مصنوعی دارن؛ تاثیر سوگیری‌های هوş مصنوعی می‌تونه عواقب خیلی جدی داشته باشه، چون هوş مصنوعی داره روزبه‌روز بیشتر تو جنبه‌های مختلف زندگی ما همه‌گیر می‌شه.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *