هوش‌های-مصنوعی-مسئولیت

یه نگاه نو به مسئول دونستن هوش مصنوعی

تو یه پژوهش تازه، معلوم شد وقتی شرکت‌کننده‌ها هوش مصنوعی (یا همون AI رو) یه جورایی با ذهنِ آدمیزاد در نظر می‌گرفتن، بیشتر قبول داشتن که هوش مصنوعی تو کارهایی که خلاف اصول اخلاقی بود، مسئولیت داره. این یافته‌ها رو مین‌جو جو از دانشگاه زنان سوکمیونگ تو سئول، کره، توی مجله‌ی PLOS ONE که مطالبش برای همه آزاده، تو تاریخ ۱۸ دسامبر ۲۰۲۴ منتشر کرد.

تحقیقات قبلی نشون داده بود که مردم معمولاً هوش مصنوعی رو مقصر می‌دونن وقتی یه اتفاق بد اخلاقی می‌افته، مثلاً یه ماشین خودران به عابر بزنه یا تصمیم‌هایی گرفته بشه که باعث آسیب‌های پزشکی یا نظامی بشه. تحقیقات بیشتر هم نشون می‌ده که اگه هوش مصنوعی بتونه فکر کنه، آگاهی داشته باشه و برنامه‌ریزی کنه، مردم مسئولیت بیشتری رو گردن‌ش می‌ندازن. به نظر می‌رسه آدم‌ها این توانایی‌ها رو بیشتر به هوش‌های مصنوعی‌ای نسبت می‌دن که حس می‌کنن یه جورایی مثل موجود زنده‌ای هستن با ذهن‌شون که می‌تونه احساسات رو بفهمه.

چند نفر تو یه آزمایشگاه مدرن نشستن و دارن درباره‌ی تصمیم‌گیری هوش مصنوعی حرف می‌زنن.
شرکت‌کننده‌ها دارن مسئولیت‌های اخلاقی هوش مصنوعی رو توی یه محیط تحقیقاتی بررسی می‌کنن.

جو با توجه به این تحقیقات قبلی، فکر می‌کرد که اگه هوش مصنوعی رو یه موجود با ذهن انسانی‌تر در نظر بگیریم، شاید مسئولیت بیشتری تو یه تخلف خاص اخلاقی داشته باشه.

جَو چیجوری مسئولیت اخلاقی هوش مصنوعی رو بررسی کرد

جو برای اینکه این فرضیه رو تست کنه، چندتا آزمایش انجام داد. تو این آزمایش‌ها، شرکت‌کننده‌ها با نمونه‌های واقعی از کارهایی که هوش مصنوعی توش خلاف اخلاق عمل کرده بود، روبرو شدن، مثل نژادپرستانه طبقه‌بندی کردن عکسا. بعد ازشون سؤالایی پرسیده شد تا تصورشون رو از ذهن هوش مصنوعی و اینکه چقدر برای این کارا هوش مصنوعی، برنامه‌نویسش، شرکت سازنده یا دولت رو مقصر می‌دونن، ارزیابی کنن.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول
یه تصویر از سناریوهای مختلف هوش مصنوعی مثل تصادف یه ماشین خودران با عابر پیاده.
سناریوهایی که تو این تحقیق بررسی شدن، چالش‌ها و نظریات اخلاقی درباره‌ی هوش مصنوعی رو نشون می‌دن.

تو بعضی از آزمایش‌ها، تصور ذهنی از هوش مصنوعی رو با یه سری اطلاعات ساختگی مثل اسم، سن، قد و علایقش تغییر دادن. تو طول آزمایش‌ها معلوم شد که شرکت‌کننده‌ها وقتی فکر می‌کردن هوش مصنوعی مثل یه آدمیزاد ذهن داره، بیشتر قبول می‌کردن که مقصره. تو این موارد، وقتی از شرکت‌کننده‌ها خواسته می‌شد که درصد تقصیر رو تقسیم کنن، سعی می‌کردن تقصیر کمتری رو گردن شرکت بندازن. اما وقتی ازشون خواسته می‌شد که میزان تقصیر هر کدوم از عوامل رو جداگانه بسنجن، تغییری تو تقصیری که به شرکت نسبت داده می‌شد، دیده نشد.

یه عکس نزدیک از صفحه‌ی رابط کاربری هوش مصنوعی که ورودی‌های کاربر و ارزیابی مسئولیت اخلاقی توش دیده می‌شه.
نحوه ارزیابی مسئولیت اخلاقی وقتی با رابط کاربری هوش مصنوعی کار می‌کنیم، نشون می‌ده که چطوری ذهن این تکنولوژی رو درک می‌کنیم.

این یافته‌ها نشون می‌ده که تصور ذهنی از هوش مصنوعی، یه عامل خیلی مهم تو اینکه کی رو برای اشتباهات هوش مصنوعی مقصر بدونیمه. علاوه بر این، جو نگران عواقب احتمالی خطرناک استفاده‌ نادرست از هوش مصنوعی به عنوان کسی که مقصر نیست، هست و می‌گه باید بیشتر درباره‌ی مسئول دونستن هوش مصنوعی تحقیق بشه.

نویسنده این‌طور اضافه می‌کنه: “آیا می‌شه هوش مصنوعی رو به خاطر کارهایی که مخالف اخلاقه مسئول دونست؟ این تحقیق نشون می‌ده که اگه هوش مصنوعی رو مثل یه آدم ببینیم، تقصیری که بهش نسبت می‌دیم بیشتر می‌شه و از تقصیری که به آدمایی که پشتش هستن کم می‌شه، که این خودش نگرانی‌هایی رو درباره‌ی اینکه ممکنه از هوش مصنوعی به عنوان یه قربانی اخلاقی استفاده بشه، ایجاد می‌کنه.”

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *