هوش‌های-مصنوعی-مسئولیت

تحقیقی جدید درباره انتساب مسئولیت به هوش‌های مصنوعی

در یک مطالعه جدید، شرکت‌کنندگان تمایل داشتند مسئولیت بیشتری به هوش‌های مصنوعی (AI) که در تخلفات اخلاقی واقعی دخیل بودند، نسبت دهند، زمانی که این هوش‌ها را به عنوان موجوداتی با ذهن‌های انسانی‌تر درک می‌کردند. مین‌جو جو از دانشگاه زنان سوکمیونگ در سئول، کره، این یافته‌ها را در مجله دسترسی آزاد PLOS ONE در تاریخ ۱۸ دسامبر ۲۰۲۴ منتشر کرد.

تحقیقات قبلی نشان داده‌اند که مردم تمایل دارند هوش‌های مصنوعی را به خاطر تخلفات اخلاقی مختلف مقصر بدانند، مانند مواردی که یک وسیله نقلیه خودران به عابری برخورد می‌کند یا تصمیماتی که باعث آسیب‌های پزشکی یا نظامی می‌شوند. تحقیقات بیشتر نشان می‌دهد که افراد تمایل دارند به هوش‌های مصنوعی که قابلیت آگاهی، تفکر و برنامه‌ریزی دارند، مسئولیت بیشتری نسبت دهند. به نظر می‌رسد افراد بیشتر احتمال دارند این قابلیت‌ها را به هوش‌های مصنوعی‌ای نسبت دهند که آن‌ها را به عنوان موجوداتی با ذهن‌های انسانی که می‌توانند احساسات آگاهانه را تجربه کنند، درک می‌کنند.

گروهی از شرکت‌کنندگان در یک آزمایشگاه تحقیقاتی مدرن در حال بحث درباره فرآیند تصمیم‌گیری هوش مصنوعی.
شرکت‌کنندگان در حال بررسی مسئولیت‌های اخلاقی هوش‌های مصنوعی در یک فضای تحقیقاتی.

بر اساس این تحقیقات قبلی، جو فرض کرد که هوش‌های مصنوعی که به عنوان موجوداتی با ذهن‌های انسانی‌تر درک می‌شوند، ممکن است مسئولیت بیشتری برای یک تخلف اخلاقی خاص بپذیرند.

تجربه‌های جُو در ارزیابی مسئولیت اخلاقی هوش مصنوعی

برای آزمایش این ایده، جُو چندین آزمایش انجام داد که در آن‌ها شرکت‌کنندگان با نمونه‌های واقعی از تخلفات اخلاقی مرتبط با هوش مصنوعی، مانند برچسب‌گذاری نژادپرستانه عکس‌ها، مواجه شدند. سپس از آن‌ها سوالاتی پرسیده شد تا ادراک آن‌ها از ذهن هوش مصنوعی مربوطه و میزان انتساب تقصیر به هوش مصنوعی، برنامه‌نویس آن، شرکت سازنده یا دولت را ارزیابی کنند.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول
تصویری از سناریوهای مختلف هوش مصنوعی شامل تصادف یک خودرو خودران با عابر پیاده.
سناریوهای تجسم‌شده در پژوهش، چالش‌ها و نظریات اخلاقی را در خصوص هوش‌های مصنوعی به تصویر می‌کشند.

در برخی موارد، ادراک ذهنی هوش مصنوعی با توصیفاتی از قبیل نام، سن، قد و سرگرمی آن دستکاری شد. در طول آزمایش‌ها، شرکت‌کنندگان تمایل داشتند که تقصیر بیشتری را به هوش مصنوعی نسبت دهند، زمانی که آن را به عنوان موجودی با ذهنی شبیه به انسان درک می‌کردند. در این موارد، وقتی از شرکت‌کنندگان خواسته می‌شد تا تقصیر نسبی را توزیع کنند، آن‌ها تمایل داشتند تا تقصیر کمتری به شرکت مربوطه نسبت دهند. اما وقتی از آن‌ها خواسته می‌شد تا سطح تقصیر را به طور مستقل برای هر عامل ارزیابی کنند، هیچ کاهشی در تقصیر نسبت داده شده به شرکت مشاهده نشد.

تصویری نزدیک از رابط کاربری هوش مصنوعی با ورودی‌های کاربران و ارزیابی مسئولیت اخلاقی.
نحوه ارزیابی مسئولیت اخلاقی در تعامل با رابط کاربری هوش مصنوعی، نشان‌دهنده چگونگی درک ذهن این تکنولوژی.

این یافته‌ها نشان می‌دهد که ادراک ذهنی هوش مصنوعی یک عامل حیاتی در انتساب تقصیر برای تخلفات مرتبط با هوش مصنوعی است. علاوه بر این، جُو نگرانی‌هایی را درباره عواقب بالقوه مضر استفاده نادرست از هوش مصنوعی به عنوان قربانیان مقصر مطرح می‌کند و خواستار تحقیقات بیشتر در زمینه انتساب تقصیر به هوش مصنوعی می‌شود.

نویسنده اضافه می‌کند: «آیا می‌توان هوش‌های مصنوعی را به خاطر تخلفات اخلاقی مسئول دانست؟ این تحقیق نشان می‌دهد که تصور هوش مصنوعی به عنوان موجودی شبیه به انسان، تقصیر نسبت داده شده به هوش مصنوعی را افزایش می‌دهد در حالی که تقصیر نسبت به ذینفعان انسانی را کاهش می‌دهد، که نگرانی‌هایی را درباره استفاده از هوش مصنوعی به عنوان یک قربانی اخلاقی ایجاد می‌کند.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *