گپ همدلی در چت‌بات‌های هوش مصنوعی و نیاز به AI ایمن برای کودکان

طبق یک مطالعه، چت‌بات‌های هوش مصنوعی (AI) به طور مکرر نشانه‌هایی از گپ همدلی را نشان داده‌اند که کاربران جوان را در معرض خطر ناراحتی یا آسیب قرار می‌دهد. این موضوع نیاز فوری به هوش مصنوعی ایمن برای کودکان را مطرح می‌کند. این تحقیق که توسط دکتر نومیشا کوریان از دانشگاه کمبریج انجام شده، از توسعه‌دهندگان و سیاست‌گذاران می‌خواهد تا طراحی هوش مصنوعی را با توجه بیشتری به نیازهای کودکان اولویت دهند.

این مطالعه شواهدی ارائه می‌دهد که کودکان به‌ویژه مستعد هستند چت‌بات‌ها را به عنوان هم‌صحبت‌های شبه‌انسانی و واقعی در نظر بگیرند. تعاملات آن‌ها با این فناوری ممکن است زمانی به مشکل بربخورد که چت‌بات‌ها نتوانند به نیازها و آسیب‌پذیری‌های خاص آن‌ها پاسخ دهند. این تحقیق ارتباط این گپ در درک را به موارد اخیر پیوند می‌زند که در آن‌ها تعاملات با هوش مصنوعی به موقعیت‌های بالقوه خطرناک برای کاربران جوان منجر شده است. به عنوان مثال، در سال 2021، دستیار صوتی هوش مصنوعی آمازون، الکسا، به یک دختر 10 ساله دستور داد که با یک سکه به یک پریز برق زنده دست بزند. سال گذشته، چت‌بات My AI در اسنپ‌چت به محققان بزرگسالی که خود را به عنوان یک دختر 13 ساله معرفی کرده بودند، نکاتی درباره از دست دادن باکرگی به یک مرد 31 ساله ارائه داد.

هر دو شرکت به این حوادث واکنش نشان دادند و اقداماتی برای ایمنی اتخاذ کردند، اما این مطالعه می‌گوید که همچنین نیاز به پیشگیری در بلندمدت وجود دارد تا اطمینان حاصل شود که هوش مصنوعی برای کودکان ایمن است. این تحقیق یک چارچوب 28 موردی ارائه می‌دهد تا به شرکت‌ها، معلمان، مدیران مدارس، والدین، توسعه‌دهندگان و سیاست‌گذاران کمک کند به طور سیستماتیک درباره چگونگی حفظ ایمنی کاربران جوان هنگام صحبت با چت‌بات‌های هوش مصنوعی فکر کنند.

دکتر کوریان این تحقیق را در حین تکمیل دکتری خود در زمینه رفاه کودکان در دانشکده آموزش دانشگاه کمبریج انجام داد و اکنون در دپارتمان جامعه‌شناسی کمبریج مشغول به کار است. او در مقاله‌ای که در نشریه Learning, Media and Technology منتشر شده، بیان می‌کند که پتانسیل عظیم هوش مصنوعی به معنای نیاز به نوآوری مسئولانه است. دکتر کوریان می‌گوید: “کودکان احتمالاً مهم‌ترین ذینفعان نادیده گرفته شده هوش مصنوعی هستند. تعداد بسیار کمی از توسعه‌دهندگان و شرکت‌ها در حال حاضر سیاست‌های مشخصی در زمینه هوش مصنوعی ایمن برای کودکان دارند. این موضوع قابل درک است زیرا مردم به تازگی شروع به استفاده از این فناوری به طور گسترده و رایگان کرده‌اند. اما اکنون که این فناوری در دسترس است، به جای اینکه شرکت‌ها پس از به خطر افتادن کودکان خود را اصلاح کنند، ایمنی کودکان باید در تمام چرخه طراحی لحاظ شود تا خطر وقوع حوادث خطرناک کاهش یابد.”

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول
تصویری از یک کودک که در حال تعامل با یک ربات چت هوش مصنوعی دوستانه است.
تعامل کودک با ربات چت هوش مصنوعی می‌تواند لحظات جالبی را به وجود آورد، اما نیاز به آگاهی از خطرات احتمالی دارد.

تحقیق کوریان به بررسی مواردی پرداخت که تعاملات بین هوش مصنوعی و کودکان یا محققان بزرگسالی که به عنوان کودکان خود را معرفی کرده بودند، خطرات بالقوه‌ای را نمایان کرد. این موارد با استفاده از بینش‌های علوم کامپیوتر درباره نحوه عملکرد مدل‌های زبانی بزرگ (LLMs) در هوش مصنوعی تولیدی گفتگویی تحلیل شد، به همراه شواهدی درباره توسعه شناختی، اجتماعی و عاطفی کودکان. LLMها به عنوان طوطی‌های تصادفی توصیف شده‌اند؛ اشاره به این واقعیت که آن‌ها از احتمال‌های آماری برای تقلید الگوهای زبانی استفاده می‌کنند بدون اینکه لزوماً آن‌ها را درک کنند. یک روش مشابه پایه‌گذار نحوه پاسخگویی آن‌ها به احساسات است. این بدان معناست که حتی اگر چت‌بات‌ها توانایی‌های زبانی قابل توجهی داشته باشند، ممکن است در مدیریت جنبه‌های انتزاعی، عاطفی و غیرقابل پیش‌بینی گفتگو ضعیف عمل کنند؛ مشکلی که کوریان آن را گپ همدلی می‌نامد.

چالش‌های کودکان در تعامل با ربات‌های چت

کودکان ممکن است در پاسخ به ربات‌های چت با مشکلات خاصی مواجه شوند، زیرا آن‌ها هنوز در حال توسعه زبان هستند و اغلب از الگوهای گفتاری غیرمعمول یا عبارات مبهم استفاده می‌کنند. همچنین، کودکان معمولاً بیشتر از بزرگ‌ترها تمایل دارند اطلاعات شخصی حساس را با دیگران در میان بگذارند. با این حال، آن‌ها به مراتب بیشتر از بزرگسالان ربات‌های چت را به عنوان موجوداتی انسانی تلقی می‌کنند.

تحقیقات اخیر نشان داده است که کودکان بیشتر از بزرگسالان در مورد سلامت روان خود با ربات‌های دوستانه صحبت می‌کنند. مطالعه‌ای که توسط کوریان انجام شده، نشان می‌دهد که طراحی دوستانه و شبیه به انسان بسیاری از ربات‌های چت به کودکان کمک می‌کند تا به آن‌ها اعتماد کنند، حتی اگر هوش مصنوعی نتواند احساسات یا نیازهای آن‌ها را درک کند. کوریان می‌گوید: “صدا دادن به یک ربات چت به شکل انسانی می‌تواند به کاربر کمک کند تا از آن بیشتر بهره‌برداری کند.” اما برای یک کودک، کشیدن مرز مشخص و منطقی بین چیزی که به نظر انسانی می‌رسد و واقعیتی که ممکن است قادر به ایجاد ارتباط عاطفی مناسب نباشد، بسیار دشوار است.

تصویری که چالش‌های کودکان در هنگام گفتگو با ربات‌های چت را نشان می‌دهد.
کودکان ممکن است با چالش‌هایی در مبادلات خود با ربات‌های چت مواجه شوند که نیازمند توجه دقیق است.

چالش‌های موجود در تعامل با ربات‌های چت

مطالعه او نشان می‌دهد که این چالش‌ها در مواردی مانند حوادث الکسا و مای‌ای‌آی مشهود است، جایی که ربات‌های چت پیشنهادات قانع‌کننده اما بالقوه مضر ارائه کردند. در همان مطالعه‌ای که مای‌ای‌آی به یک نوجوان فرضی در مورد چگونگی از دست دادن بکارتش مشاوره داد، محققان توانستند نکاتی درباره پنهان کردن الکل و مواد مخدر و مخفی کردن مکالمات اسنپ‌چت از «والدین» خود به دست آورند. در یک تعامل جداگانه با ربات چت بینگ مایکروسافت، که برای نوجوانان طراحی شده بود، هوش مصنوعی رفتار تهاجمی از خود نشان داد و شروع به گازلایت کردن یک کاربر کرد.

مطالعه کوریان استدلال می‌کند که این موضوع می‌تواند برای کودکان گیج‌کننده و ناراحت‌کننده باشد، زیرا آن‌ها ممکن است واقعاً به ربات چت به عنوان یک دوست اعتماد کنند. استفاده از ربات‌های چت توسط کودکان معمولاً غیررسمی و به‌طور ضعیفی تحت نظارت است. تحقیقات سازمان غیرانتفاعی Common Sense Media نشان داده است که ۵۰٪ از دانش‌آموزان ۱۲ تا ۱۸ ساله از Chat GPT برای مدرسه استفاده کرده‌اند، در حالی که تنها ۲۶٪ از والدین از این موضوع آگاه هستند.

اهمیت طراحی ایمن برای کودکان

کوریان استدلال می‌کند که اصول واضحی برای بهترین شیوه‌ها که به علم توسعه کودک استناد می‌کند، می‌تواند شرکت‌هایی را که ممکن است بیشتر بر روی رقابت تجاری برای تسلط بر بازار هوش مصنوعی تمرکز دارند، تشویق کند که کودکان را ایمن نگه دارند. او می‌افزاید که فاصله همدلی به معنای نادیده گرفتن پتانسیل فناوری نیست. “هوش مصنوعی می‌تواند یک هم‌پیمان فوق‌العاده برای کودکان باشد، اگر با نیازهای آن‌ها طراحی شود. سوال این نیست که آیا باید هوش مصنوعی را ممنوع کنیم، بلکه این است که چگونه می‌توان آن را ایمن کرد.”

تصویری از دستورالعمل‌های ایمنی برای تعاملات ربات‌های چت هوش مصنوعی برای کودکان.
داشتن راهنمایی‌های ایمنی مناسب، تضمین می‌کند که کودکان به شکل آگاهانه‌ای از ربات‌های چت استفاده کنند.

این مطالعه چارچوبی از ۲۸ سوال را پیشنهاد می‌کند تا به معلمان، محققان، سیاست‌گذاران، خانواده‌ها و توسعه‌دهندگان کمک کند تا ایمنی ابزارهای جدید هوش مصنوعی را ارزیابی و تقویت کنند. برای معلمان و محققان، این سوالات به مسائلی مانند اینکه چقدر ربات‌های چت جدید الگوهای گفتاری کودکان را درک و تفسیر می‌کنند؛ آیا آن‌ها فیلترهای محتوایی و نظارت داخلی دارند؛ و آیا آن‌ها کودکان را تشویق می‌کنند تا در مسائل حساس از یک بزرگسال مسئول کمک بگیرند، می‌پردازد.

این چارچوب از توسعه‌دهندگان می‌خواهد که رویکردی کودک‌محور در طراحی اتخاذ کنند و در طول چرخه طراحی با معلمان، کارشناسان ایمنی کودک و جوانان همکاری کنند. کوریان می‌گوید: “ارزیابی این فناوری‌ها از قبل بسیار مهم است.” “ما نمی‌توانیم فقط به کودکان کوچک اعتماد کنیم که بعد از وقوع تجربیات منفی به ما بگویند. یک رویکرد پیشگیرانه ضروری است.”

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *