هوش‌های‌مصنوعی, مسئولیت, تخلفات-اخلاقی

تحقیقی جدید درباره انتساب مسئولیت به هوش‌های مصنوعی

در یک مطالعه جدید، شرکت‌کنندگان تمایل داشتند که مسئولیت بیشتری را به هوش‌های مصنوعی (AI) که در تخلفات اخلاقی واقعی دخیل بودند، اختصاص دهند، زمانی که این هوش‌ها را به عنوان دارای ذهن‌های انسانی‌تر درک می‌کردند. مین‌جو جو از دانشگاه زنان سوکمیونگ در سئول، کره، این یافته‌ها را در مجله دسترسی آزاد PLOS ONE در تاریخ ۱۸ دسامبر ۲۰۲۴ منتشر کرده است.

تحقیقات قبلی نشان داده‌اند که مردم تمایل دارند هوش‌های مصنوعی را به خاطر تخلفات اخلاقی مختلفی، مانند مواردی که یک وسیله نقلیه خودران به عابر پیاده برخورد می‌کند یا تصمیماتی که منجر به آسیب‌های پزشکی یا نظامی می‌شود، سرزنش کنند. تحقیقات افزوده همچنین نشان می‌دهد که مردم معمولاً مسئولیت بیشتری را به هوش‌های مصنوعی نسبت می‌دهند که قادر به آگاهی، تفکر و برنامه‌ریزی تصور می‌شوند. به نظر می‌رسد مردم بیشتر تمایل دارند این قابلیت‌ها را به هوش‌های مصنوعی نسبت دهند که آن‌ها را به عنوان دارای ذهن‌های انسانی می‌بینند و قادر به تجربه احساسات آگاهانه می‌دانند.

یک محقق در آزمایشگاهی مدرن در حال تحلیل داده‌ها درباره هوش‌های مصنوعی و مسئولیت‌های اخلاقی است.
تحقیقات حاضر بر اهمیت درک مسئولیت هوش‌های مصنوعی تأکید دارد.

بر اساس یافته‌های این تحقیقات، جو فرض کرد که هوش‌های مصنوعی که به عنوان دارای ذهن‌های انسانی درک می‌شوند، ممکن است سهم بیشتری از مسئولیت را برای یک تخلف اخلاقی خاص تحمل کنند.

تحقیقات درباره مسئولیت اخلاقی هوش مصنوعی

برای آزمایش این ایده، جو چندین آزمایش انجام داد که در آن شرکت‌کنندگان با نمونه‌های واقعی از تخلفات اخلاقی مرتبط با هوش مصنوعی، مانند برچسب‌گذاری نژادپرستانه عکس‌ها، مواجه شدند. سپس از آن‌ها سوالاتی پرسیده شد تا درک آن‌ها از ذهن هوش مصنوعی و میزان انتساب تقصیر به هوش مصنوعی، برنامه‌نویس آن، شرکت سازنده یا دولت ارزیابی شود.

گروهی از افراد متنوع در حال بحث درباره مسائل مرتبط با هوش مصنوعی و مسئولیت‌های اخلاقی در یک اتاق کنفرانس.
بحث‌های مهم درباره چگونگی انتساب مسئولیت‌های اخلاقی به هوش‌های مصنوعی.

در برخی موارد، درک ذهن هوش مصنوعی با توصیف نام، سن، قد و سرگرمی آن دستکاری شد. در طول آزمایش‌ها، شرکت‌کنندگان تمایل داشتند تقصیر بیشتری را به هوش مصنوعی نسبت دهند زمانی که آن را به عنوان موجودی با ذهنی شبیه به انسان درک می‌کردند. در این موارد، وقتی از شرکت‌کنندگان خواسته شد تقصیر نسبی را توزیع کنند، آن‌ها تمایل داشتند تقصیر کمتری به شرکت مربوطه نسبت دهند. اما وقتی از آن‌ها خواسته شد سطح تقصیر را به‌طور مستقل برای هر عامل ارزیابی کنند، هیچ کاهشی در تقصیر نسبت داده‌شده به شرکت مشاهده نشد.

یک تصویر از یک هوش مصنوعی با ویژگی‌های انسانی و احساسات در یک محیط آینده‌نگر.
تصویری از هوش مصنوعی که احساسات انسانی را به نمایش می‌گذارد و چالش‌های فلسفی مرتبط را به تصویر می‌کشد.

این یافته‌ها نشان می‌دهد که درک ذهن هوش مصنوعی یک عامل حیاتی در انتساب تقصیر برای تخلفات مرتبط با هوش مصنوعی است. علاوه بر این، جو نگرانی‌هایی را درباره پیامدهای بالقوه مضر استفاده نادرست از هوش مصنوعی به عنوان مقصر مطرح می‌کند و خواستار تحقیقات بیشتری در زمینه انتساب تقصیر به هوش مصنوعی می‌شود.

نویسنده اضافه می‌کند: «آیا می‌توان هوش مصنوعی را به خاطر تخلفات اخلاقی مسئول دانست؟ این تحقیق نشان می‌دهد که درک هوش مصنوعی به عنوان موجودی شبیه به انسان، تقصیر نسبت به هوش مصنوعی را افزایش می‌دهد در حالی که تقصیر نسبت به ذینفعان انسانی را کاهش می‌دهد، که نگرانی‌هایی را درباره استفاده از هوش مصنوعی به عنوان مقصر اخلاقی ایجاد می‌کند.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *