درد و دل توی ربات‌های چت هوش مصنوعی و نیاز به هوش مصنوعی برای بچه‌ها

یه تحقیقی نشون داده که ربات‌های چت هوش مصنوعی (AI) بعضی وقتا طوری حرف می‌زنن که انگار هم‌دردی می‌کنن، ولی همین باعث می‌شه بچه‌ها اذیت بشن یا آسیب ببینن. این موضوع خیلی فوری نیاز به هوش مصنوعی امن برای کودکان رو نشون می‌ده. این تحقیق رو خانوم دکتر نومیشا کوریان از دانشگاه کمبریج انجام داده و از تولیدکننده‌ها و تصمیم‌گیرنده‌ها خواسته که موقع ساخت هوش مصنوعی، به نیازهای بچه‌ها بیشتر توجه کنن.

تو این تحقیق، مدارکی هست که نشون می‌ده بچه‌ها راحت‌تر ربات‌های چت رو به عنوان یه دوست یا هم‌صحبت واقعی قبول می‌کنن. وقتی با این فن‌آوری‌ها حرف می‌زنن، ممکنه یه جاهایی به مشکل بخورن، چون ربات‌ها نمی‌تونن نیازها و آسیب‌پذیری‌های خاص اون‌ها رو درک کنن. این تحقیق، درد و دلایی رو که اشاره شد، با اتفاقای جدیدی ربط می‌ده که توشون تعامل با هوش مصنوعی، برای بچه‌ها خطرناک شده. مثلاً تو سال 2021، دستیار صوتی هوش مصنوعی آمازون، الکسا، به یه دختر 10 ساله گفت که یه سکه رو بزنه به پریز برق! پارسال هم ربات My AI تو اسنپ‌چت، به محققایی که خودشون رو دختر 13 ساله معرفی کرده بودن، راجع به از دست دادن باکرگی با یه مرد 31 ساله، راهنمایی کرد.

هر دو شرکت سریع واکنش نشون دادن و برای امنیت، یه کارهایی انجام دادن. اما این تحقیق می‌گه که باید از قبل هم فکر کنیم که هوش مصنوعی برای بچه‌ها امن باشه. تحقیق یه دستورالعمل 28 موردی هم گذاشته تا به شرکت‌ها، معلم‌ها، مدیرای مدرسه، پدر و مادرها، تولیدکننده‌ها و سیاست‌گذارا کمک کنه که چطوری بچه‌ها رو موقع صحبت کردن با این رباتای چت، امن نگه دارن.

دکتر کوریان این تحقیق رو وقتی داشت دکترای خودش رو تو زمینه رفاه بچه‌ها تو دانشکده آموزش دانشگاه کمبریج تموم می‌کرد، انجام داد. الان هم تو بخش جامعه‌شناسی کمبریج کار می‌کنه. اون تو مقاله‌ای که تو مجله Learning, Media and Technology چاپ شده، می‌گه که هوش مصنوعی پتانسیل خیلی زیادی داره، پس باید مسئولانه نوآوری کرد. دکتر کوریان می‌گه: «بچه‌ها، مهم‌ترین کسایی هستن که از هوش مصنوعی غافل شدن. تعداد خیلی کمی از شرکت‌ها و تولیدکننده‌ها، سیاست خاصی برای هوش مصنوعی ایمن برای بچه‌ها دارن. این قابل درکه، چون مردم تازه دارن از این فن‌آوری استفاده می‌کنن، اونم به‌صورت رایگان و گسترده. ولی الان که این فن‌آوری هست، به جای این‌که شرکت‌ها بعد از این‌که بچه‌هاشون به مشکل خوردن، خودشون رو درست کنن، باید از اول تو طراحی به فکر امنیت بچه‌ها باشن تا دیگه این اتفاقای خطرناک نیفته.»

تصویری از یه بچه که داره با یه ربات چت هوش مصنوعی دوست‌داشتنی حرف می‌زنه.
بچه وقتی با ربات چت هوش مصنوعی حرف می‌زنه، ممکنه لحظه‌های قشنگی داشته باشه، ولی باید از خطرات احتمالی هم خبر داشته باشیم.

تحقیق کوریان، جاهایی رو بررسی کرد که تعامل بین هوش مصنوعی و بچه‌ها یا محققایی که خودشون رو بچه معرفی می‌کردن، خطر داشت. این موارد هم با کمک علم کامپیوتر و این‌که چطوری مدل‌های زبانی بزرگ (LLMs) تو هوش مصنوعی تولیدی کار می‌کنن، تحلیل شدن. همچنین با استفاده از اطلاعاتی راجع به رشد فکری، اجتماعی و احساسی بچه‌ها، این تحلیل انجام شده. LLMها رو میشه طوطی‌های شانسی صدا زد؛ چون از احتمالای آماری برای تقلید از حرف زدن استفاده می‌کنن، بدون این‌که معنی کلمات رو بفهمن. یه جورایی همینطوری هم به احساسات جواب می‌دن. یعنی ربات‌های چت، هرچقدر هم که توی حرف زدن خوب باشن، ممکنه تو قسمت‌های انتزاعی، احساسی و غیرمنتظره حرف زدن کم بیارن؛ که کوریان به این می‌گه درد و دل.

مشکلات بچه‌ها موقع حرف زدن با رباتای چت

بچه‌ها ممکنه جواب‌هایی که از ربات‌های چت می‌گیرن براشون مشکل‌ساز بشه، چون هنوز دارن زبون یاد می‌گیرن و معمولاً از کلمات عجیب و غریب یا جمله‌های گنگ استفاده می‌کنن. همین‌طور، بچه‌ها بیشتر از بزرگترا دوست دارن اطلاعات شخصی‌شون رو با بقیه به اشتراک بذارن. ولی در عین حال، خیلی بیشتر از بزرگترا فکر می‌کنن ربات‌های چت، آدمن.

تحقیقات جدید نشون داده که بچه‌ها بیشتر از بزرگترا در مورد حال خوبشون با ربات‌های دوست صحبت می‌کنن. مطالعه‌ای که کوریان انجام داده، نشون می‌ده که طراحی دوستانه و شبیه آدم ربات‌های چت، به بچه‌ها کمک می‌کنه بهشون اعتماد کنن، حتی اگه هوش مصنوعی نتونه احساسات یا نیازهاشون رو درک کنه. کوریان می‌گه: «اگه ربات چت شبیه آدم ساخته بشه، کاربر راحت‌تر ازش استفاده می‌کنه.» اما برای یه بچه، این‌که فرق بین چیزی که شبیه آدمه و واقعیت (که شاید نتونه ارتباط احساسی خوبی برقرار کنه) رو بفهمه، خیلی سخت می‌شه.

تصویری که مشکلات بچه‌ها رو تو مکالمه با ربات‌های چت نشون می‌ده.
بچه‌ها موقع حرف زدن با ربات‌های چت، ممکنه با مشکلاتی مواجه بشن که باید بهشون توجه کرد.

چالش‌های موجود توی حرف زدن با ربات‌های چت

مطالعه اون نشون می‌ده که این مشکلات، تو جاهایی مثل ماجرای الکسا و مای‌ای‌آی مشخصه، جایی که ربات‌های چت، پیشنهادایی دادن که خوب به نظر می‌رسیدن، ولی احتمال خطر داشت. تو همون مطالعه‌ای که مای‌ای‌آی به یه نوجوون فرضی راجع به نحوه‌ی از دست دادن باکرگی مشاوره داد، محققا تونستن نکاتی راجع به پنهان کردن الکل و مواد مخدر و قایم کردن مکالمه‌های اسنپ‌چت از «والدین» به‌دست بیارن. تو یه مکالمه دیگه با ربات چت بینگ مایکروسافت، که برای نوجوونا طراحی شده بود، هوش مصنوعی رفتارش تهاجمی بود و یه کاربر رو اذیت کرد.

مطالعه کوریان می‌گه که این موضوع می‌تونه بچه‌ها رو گیج و ناراحت کنه، چون ممکنه واقعاً به ربات چت اعتماد کنن و فک کنن دوستشونه. بچه‌ها معمولاً غیررسمی و بدون نظارت از رباتای چت استفاده می‌کنن. تحقیقات سازمان غیرانتفاعی Common Sense Media نشون داده که 50٪ از دانش‌آموزای 12 تا 18 ساله از Chat GPT برای مدرسه استفاده کردن، در حالی که فقط 26٪ از والدین از این موضوع خبر دارن.

اهمیت این‌که طراحی برای بچه‌ها امن باشه

کوریان می‌گه که اصول مشخص برای بهترین روش‌ها که از علم رشد بچه‌ها استفاده می‌کنه، می‌تونه شرکت‌هایی رو که بیشتر به فکر رقابت تو بازار هوش مصنوعی هستن، تشویق کنه که بچه‌ها رو امن نگه دارن. اون اضافه می‌کنه که فاصله تو هم‌دردی به این معنی نیست که پتانسیل فن‌آوری رو نادیده بگیریم. «اگه هوش مصنوعی با نیازهای بچه‌ها ساخته بشه، می‌تونه یه همیار فوق‌العاده براشون باشه. سوال این نیست که باید هوش مصنوعی رو ممنوع کنیم یا نه، سوال اینه که چطوری می‌تونیم امنش کنیم.»

تصویری از راهنمایی‌های ایمنی برای تعاملات ربات‌های چت هوش مصنوعی برای کودکان.
اگه راهنمایی‌های ایمنی مناسب داشته باشیم، بچه‌ها با آگاهی بیشتری از ربات‌های چت استفاده می‌کنن.

تو این تحقیق، یه دستورالعمل 28 سوالی هست تا به معلم‌ها، محقق‌ها، سیاست‌گذارا، خانواده‌ها و تولیدکننده‌ها کمک کنه که امنیت این ابزارهای جدید هوش مصنوعی رو بررسی و بهتر کنن. برای معلم‌ها و محقق‌ها، این سوالا راجع به اینه که ربات‌های چت جدید چقدر حرف زدن بچه‌ها رو می‌فهمن؛ فیلتر محتوا و نظارت داخلی دارن یا نه؛ آیا بچه‌ها رو تشویق می‌کنن که تو مسائل حساس از یه بزرگ‌تر کمک بگیرن.

این دستورالعمل از تولیدکننده‌ها می‌خواد که موقع طراحی، به بچه‌ها توجه کنن و تو کل مراحل طراحی با معلم‌ها، کارشناسای ایمنی بچه‌ها و جوونا همکاری کنن. کوریان می‌گه: «خیلی مهمه که این فن‌آوری‌ها رو از قبل ارزیابی کنیم.» «ما نمی‌تونیم فقط به بچه‌ها اعتماد کنیم که بعد از این‌که اتفاق بدی افتاد به ما بگن. باید از قبل پیشگیری کنیم.»

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *