هوش‌های مصنوعی-انتقاد-ذهن‌های انسانی

تحقیقی جدید: انتقاد بیشتر از هوش‌های مصنوعی با ذهن‌های انسانی‌گونه

در یک مطالعه جدید، شرکت‌کنندگان تمایل داشتند که به هوش‌های مصنوعی (AI) که در تخلفات اخلاقی واقعی دخالت داشتند، زمانی که آن‌ها را دارای ذهن‌های انسانی‌گونه می‌دیدند، بیشتر انتقاد کنند. مین‌جو جو از دانشگاه زنان سوک‌میونگ در سئول، کره، این یافته‌ها را در مجله دسترسی آزاد PLOS ONE در تاریخ ۱۸ دسامبر ۲۰۲۴ منتشر کرد.

تحقیقات پیشین نشان داده‌اند که مردم تمایل دارند هوش‌های مصنوعی را برای تخلفات اخلاقی مختلف مقصر بدانند، مانند مواردی که یک وسیله نقلیه خودران به عابری برخورد می‌کند یا تصمیماتی که منجر به آسیب‌های پزشکی یا نظامی می‌شود. تحقیقات بیشتر نیز نشان می‌دهد که افراد به هوش‌های مصنوعی که قابلیت آگاهی، تفکر و برنامه‌ریزی را دارند، بیشتر انتقاد می‌کنند. به نظر می‌رسد که افراد بیشتر احتمال دارند این قابلیت‌ها را به هوش‌های مصنوعی‌ای نسبت دهند که آن‌ها را دارای ذهن‌های انسانی‌گونه می‌دانند و می‌توانند احساسات آگاهانه را تجربه کنند.

علم‌پژوهی در آزمایشگاهی مدرن در حال تجزیه و تحلیل داده‌ها درباره هوش مصنوعی.
علم‌پژوهی در حال بررسی و تحلیل داده‌های مربوط به تخلفات اخلاقی هوش مصنوعی.

بر اساس این تحقیقات قبلی، جو فرض کرد که هوش‌های مصنوعی که به عنوان دارای ذهن‌های انسانی‌گونه درک می‌شوند، ممکن است سهم بیشتری از انتقاد را برای یک تخلف اخلاقی خاص دریافت کنند.

تحقیقات درباره مسئولیت اخلاقی هوش مصنوعی

برای آزمایش این ایده، جو چندین آزمایش انجام داد که در آن شرکت‌کنندگان با نمونه‌های واقعی از تخلفات اخلاقی مرتبط با هوش مصنوعی مواجه شدند. به عنوان مثال، یکی از این موارد، برچسب‌گذاری نژادپرستانه عکس‌ها بود. در این آزمایش‌ها، از شرکت‌کنندگان سوالاتی پرسیده شد تا درک آن‌ها از ذهن هوش مصنوعی مورد بررسی قرار گیرد و همچنین میزان مسئولیت‌پذیری آن‌ها نسبت به هوش مصنوعی، برنامه‌نویس، شرکت سازنده یا دولت سنجیده شود.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با انیمیشن
تصویری تقسیم شده از یک ماشین خودران که به عابر پیاده برخورد می‌کند و یک سیستم هوش مصنوعی که تصمیم پزشکی مهمی می‌گیرد.
سناریویی از چالش‌های اخلاقی ناشی از تصمیم‌گیری‌های هوش مصنوعی در کنار مشکلات حاد مانند تصادف‌ها.

در برخی موارد، درک ذهن هوش مصنوعی با توصیف نام، سن، قد و سرگرمی آن تغییر داده شد. در طول این آزمایش‌ها، شرکت‌کنندگان تمایل داشتند که مسئولیت بیشتری را به هوش مصنوعی نسبت دهند، زمانی که آن را به عنوان موجودی شبیه به انسان درک می‌کردند. در این موارد، وقتی از شرکت‌کنندگان خواسته می‌شد که مسئولیت نسبی را توزیع کنند، آن‌ها تمایل داشتند که مسئولیت کمتری به شرکت مربوطه نسبت دهند. اما هنگامی که از آن‌ها خواسته می‌شد تا سطح مسئولیت را به‌طور مستقل برای هر عامل ارزیابی کنند، هیچ کاهشی در مسئولیت نسبت داده‌شده به شرکت مشاهده نشد.

گروهی از شرکت‌کنندگان در یک جلسه بحث درباره مسئولیت هوش مصنوعی.
شرکت‌کنندگان در حال تبادل نظر درباره مسئولیت‌پذیری هوش مصنوعی و پیامدهای آن.

این یافته‌ها نشان می‌دهد که درک ذهن هوش مصنوعی یک عامل کلیدی در نسبت دادن مسئولیت به تخلفات مرتبط با هوش مصنوعی است. علاوه بر این، جو نگرانی‌هایی را درباره عواقب بالقوه مضر استفاده نادرست از هوش مصنوعی به عنوان قربانیان اخلاقی مطرح می‌کند و خواستار تحقیقات بیشتری در زمینه نسبت دادن مسئولیت به هوش مصنوعی می‌شود. نویسنده اضافه می‌کند: «آیا می‌توان هوش مصنوعی را به خاطر تخلفات اخلاقی مسئول دانست؟ این تحقیق نشان می‌دهد که درک هوش مصنوعی به عنوان موجودی شبیه به انسان، مسئولیت نسبت به آن را افزایش می‌دهد و در عین حال مسئولیت نسبت به ذینفعان انسانی را کاهش می‌دهد، که نگرانی‌هایی را درباره استفاده از هوش مصنوعی به عنوان قربانی اخلاقی ایجاد می‌کند.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *