هوش‌های‌مصنوعی, مسئولیت, تخلفات-اخلاقی

پژوهشی نو در باب نسبت دادن تقصیر به هوش‌های مصنوعی

تو یه مطالعهٔ تازه، این‌طور به نظر می‌رسید که شرکت‌کننده‌ها دوست داشتن مسئولیتِ بیشتری رو به هوش‌های مصنوعی (AI) بدن، وقتی که این هوش‌ها تو تخلف‌های اخلاقیِ واقعی دست داشتن، اونم وقتی که این هوش‌ها رو با ذهن‌های شبیه‌تر به انسان درک می‌کردن. مین‌جو جو از دانشگاه زنان سوکمیونگ تو سئول، کره، این یافته‌ها رو تو مجلهٔ دسترسی آزاد PLOS ONE تو تاریخ ۱۸ دسامبر ۲۰۲۴ منتشر کرده.

تحقیقات قبلی نشون دادن مردم معمولاً هوش‌های مصنوعی رو به خاطر انواع تخلف‌های اخلاقی، مثل اون موقعی که یه ماشینِ خودران به یه عابر پیاده می‌زنه یا تصمیماتی که باعث آسیب‌های پزشکی یا نظامی می‌شن، سرزنش می‌کنن. تحقیقاتِ دیگه هم نشون می‌ده مردم معمولاً مسئولیت بیشتری رو به هوش‌های مصنوعی نسبت می‌دن که تصور می‌کنن آگاهی، تفکر و برنامه‌ریزیشون بالاست. به نظر می‌رسه مردم بیشتر گرایش دارن این قابلیت‌ها رو به هوش‌های مصنوعی ای نسبت بدن که به چشم‌شون ذهن‌های انسانی دارن و می‌تونن احساسات آگاهانه رو تجربه کنن.

یه محقق تو یه آزمایشگاه مدرن داره داده‌ها رو دربارهٔ هوش‌های مصنوعی و مسئولیت‌های اخلاقی تحلیل می‌کنه.
تحقیقات حاضر بر این نکته تاکید داره که چقدر مهمه مسئولیت‌های هوش مصنوعی رو درست درک کنیم.

جو، با توجه به یافته‌های این تحقیقات، این‌طور فرض کرد که هوش‌های مصنوعی که به عنوان موجوداتی با ذهن‌های انسانی درک می‌شن، ممکنه سهم بیشتری از مسئولیت رو برای یه تخلف اخلاقی خاص به عهده بگیرن.

بررسی مسئولیت اخلاقی هوش مصنوعی

برای امتحان کردن این ایده، جو یه سری آزمایش انجام داد که توشون شرکت‌کننده‌ها با نمونه‌های واقعیِ تخلف‌های اخلاقی مرتبط با هوش مصنوعی، مثل برچسب‌زدنِ نژادپرستانه به عکس‌ها، مواجه شدن. بعد از اونا سؤالاتی پرسیده شد تا درک‌شون از ذهنِ هوش مصنوعی و میزان مسئول دونستن هوش مصنوعی، برنامه‌نویسش، شرکتِ سازنده و یا دولت، مشخص بشه.

گروهی از آدم‌های مختلف دارن دربارهٔ مسائل مربوط به هوش مصنوعی و مسئولیت‌های اخلاقی تو یه اتاق کنفرانس بحث می‌کنن.
بحث‌های مهم دربارهٔ این‌که چه‌جوری می‌شه مسئولیت‌های اخلاقی رو به هوش‌های مصنوعی نسبت داد.

تو بعضی از موارد، درکِ ذهنِ هوش مصنوعی با تغییردادن اسم، سن، قد و سرگرمی‌هاش دستکاری شد. تو طول آزمایش‌ها، شرکت‌کننده‌ها تمایل داشتن که تقصیر بیشتری رو به هوش مصنوعی نسبت بدن، اونم وقتی که اونو به عنوان موجودی با ذهنِ شبیه به انسان درک می‌کردن. تو این موارد، وقتی از شرکت‌کننده‌ها خواسته شد که میزان تقصیر رو تقسیم کنن، اونا گرایش داشتن که تقصیر کم‌تری رو به شرکت‌های مربوطه نسبت بدن. اما وقتی ازشون خواسته شد که سطح تقصیر رو برای هر کدوم از عوامل به‌طور جداگونه ارزیابی کنن، هیچ کاهشی تو میزان تقصیری که به شرکت داده شده بود، دیده نشد.

یه تصویر از یه هوش مصنوعی با ویژگی‌های انسانی و احساساتِ توی یه محیطِ آینده‌نگر.
تصویری از هوش مصنوعی که احساسات انسانی رو نشون می‌ده و چالش‌های فلسفی مربوط به اون رو به تصویر می‌کشه.

این یافته‌ها نشون می‌ده که درک ذهن هوش مصنوعی یه عامل خیلی مهم تو نسبت دادن تقصیر برای تخلف‌های مربوط به هوش مصنوعی‌ـه. علاوه بر این، جو دربارهٔ پیامدهای احتمالیِ آسیب‌زنندهٔ سوءاستفاده از هوش مصنوعی به عنوان مقصر، ابراز نگرانی می‌کنه و خواستار تحقیقات بیشتر تو زمینهٔ نسبت دادن تقصیر به هوش مصنوعی می‌شه.

نویسنده اضافه می‌کنه: «آیا می‌شه هوش مصنوعی رو به خاطر تخلف‌های اخلاقی مسئول دونست؟ این تحقیق نشون می‌ده که درک هوش مصنوعی به‌عنوان یه موجودِ شبیه به انسان، میزانِ تقصیر نسبت داده شده به هوش مصنوعی رو زیاد می‌کنه، درحالی‌که تقصیر مربوط به کسایی که ازش سود می‌برن رو کم می‌کنه، که این مسئله نگرانی‌هایی رو دربارهٔ استفاده از هوش مصنوعی به‌عنوان یه مقصر اخلاقی ایجاد می‌کنه.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *