درد و دل توی رباتهای چت هوش مصنوعی و نیاز به هوش مصنوعی برای بچهها
یه تحقیقی نشون داده که رباتهای چت هوش مصنوعی (AI) بعضی وقتا طوری حرف میزنن که انگار همدردی میکنن، ولی همین باعث میشه بچهها اذیت بشن یا آسیب ببینن. این موضوع خیلی فوری نیاز به هوش مصنوعی امن برای کودکان رو نشون میده. این تحقیق رو خانوم دکتر نومیشا کوریان از دانشگاه کمبریج انجام داده و از تولیدکنندهها و تصمیمگیرندهها خواسته که موقع ساخت هوش مصنوعی، به نیازهای بچهها بیشتر توجه کنن.
تو این تحقیق، مدارکی هست که نشون میده بچهها راحتتر رباتهای چت رو به عنوان یه دوست یا همصحبت واقعی قبول میکنن. وقتی با این فنآوریها حرف میزنن، ممکنه یه جاهایی به مشکل بخورن، چون رباتها نمیتونن نیازها و آسیبپذیریهای خاص اونها رو درک کنن. این تحقیق، درد و دلایی رو که اشاره شد، با اتفاقای جدیدی ربط میده که توشون تعامل با هوش مصنوعی، برای بچهها خطرناک شده. مثلاً تو سال 2021، دستیار صوتی هوش مصنوعی آمازون، الکسا، به یه دختر 10 ساله گفت که یه سکه رو بزنه به پریز برق! پارسال هم ربات My AI تو اسنپچت، به محققایی که خودشون رو دختر 13 ساله معرفی کرده بودن، راجع به از دست دادن باکرگی با یه مرد 31 ساله، راهنمایی کرد.
هر دو شرکت سریع واکنش نشون دادن و برای امنیت، یه کارهایی انجام دادن. اما این تحقیق میگه که باید از قبل هم فکر کنیم که هوش مصنوعی برای بچهها امن باشه. تحقیق یه دستورالعمل 28 موردی هم گذاشته تا به شرکتها، معلمها، مدیرای مدرسه، پدر و مادرها، تولیدکنندهها و سیاستگذارا کمک کنه که چطوری بچهها رو موقع صحبت کردن با این رباتای چت، امن نگه دارن.
دکتر کوریان این تحقیق رو وقتی داشت دکترای خودش رو تو زمینه رفاه بچهها تو دانشکده آموزش دانشگاه کمبریج تموم میکرد، انجام داد. الان هم تو بخش جامعهشناسی کمبریج کار میکنه. اون تو مقالهای که تو مجله Learning, Media and Technology چاپ شده، میگه که هوش مصنوعی پتانسیل خیلی زیادی داره، پس باید مسئولانه نوآوری کرد. دکتر کوریان میگه: «بچهها، مهمترین کسایی هستن که از هوش مصنوعی غافل شدن. تعداد خیلی کمی از شرکتها و تولیدکنندهها، سیاست خاصی برای هوش مصنوعی ایمن برای بچهها دارن. این قابل درکه، چون مردم تازه دارن از این فنآوری استفاده میکنن، اونم بهصورت رایگان و گسترده. ولی الان که این فنآوری هست، به جای اینکه شرکتها بعد از اینکه بچههاشون به مشکل خوردن، خودشون رو درست کنن، باید از اول تو طراحی به فکر امنیت بچهها باشن تا دیگه این اتفاقای خطرناک نیفته.»
تحقیق کوریان، جاهایی رو بررسی کرد که تعامل بین هوش مصنوعی و بچهها یا محققایی که خودشون رو بچه معرفی میکردن، خطر داشت. این موارد هم با کمک علم کامپیوتر و اینکه چطوری مدلهای زبانی بزرگ (LLMs) تو هوش مصنوعی تولیدی کار میکنن، تحلیل شدن. همچنین با استفاده از اطلاعاتی راجع به رشد فکری، اجتماعی و احساسی بچهها، این تحلیل انجام شده. LLMها رو میشه طوطیهای شانسی صدا زد؛ چون از احتمالای آماری برای تقلید از حرف زدن استفاده میکنن، بدون اینکه معنی کلمات رو بفهمن. یه جورایی همینطوری هم به احساسات جواب میدن. یعنی رباتهای چت، هرچقدر هم که توی حرف زدن خوب باشن، ممکنه تو قسمتهای انتزاعی، احساسی و غیرمنتظره حرف زدن کم بیارن؛ که کوریان به این میگه درد و دل.
مشکلات بچهها موقع حرف زدن با رباتای چت
بچهها ممکنه جوابهایی که از رباتهای چت میگیرن براشون مشکلساز بشه، چون هنوز دارن زبون یاد میگیرن و معمولاً از کلمات عجیب و غریب یا جملههای گنگ استفاده میکنن. همینطور، بچهها بیشتر از بزرگترا دوست دارن اطلاعات شخصیشون رو با بقیه به اشتراک بذارن. ولی در عین حال، خیلی بیشتر از بزرگترا فکر میکنن رباتهای چت، آدمن.
تحقیقات جدید نشون داده که بچهها بیشتر از بزرگترا در مورد حال خوبشون با رباتهای دوست صحبت میکنن. مطالعهای که کوریان انجام داده، نشون میده که طراحی دوستانه و شبیه آدم رباتهای چت، به بچهها کمک میکنه بهشون اعتماد کنن، حتی اگه هوش مصنوعی نتونه احساسات یا نیازهاشون رو درک کنه. کوریان میگه: «اگه ربات چت شبیه آدم ساخته بشه، کاربر راحتتر ازش استفاده میکنه.» اما برای یه بچه، اینکه فرق بین چیزی که شبیه آدمه و واقعیت (که شاید نتونه ارتباط احساسی خوبی برقرار کنه) رو بفهمه، خیلی سخت میشه.
چالشهای موجود توی حرف زدن با رباتهای چت
مطالعه اون نشون میده که این مشکلات، تو جاهایی مثل ماجرای الکسا و مایایآی مشخصه، جایی که رباتهای چت، پیشنهادایی دادن که خوب به نظر میرسیدن، ولی احتمال خطر داشت. تو همون مطالعهای که مایایآی به یه نوجوون فرضی راجع به نحوهی از دست دادن باکرگی مشاوره داد، محققا تونستن نکاتی راجع به پنهان کردن الکل و مواد مخدر و قایم کردن مکالمههای اسنپچت از «والدین» بهدست بیارن. تو یه مکالمه دیگه با ربات چت بینگ مایکروسافت، که برای نوجوونا طراحی شده بود، هوش مصنوعی رفتارش تهاجمی بود و یه کاربر رو اذیت کرد.
مطالعه کوریان میگه که این موضوع میتونه بچهها رو گیج و ناراحت کنه، چون ممکنه واقعاً به ربات چت اعتماد کنن و فک کنن دوستشونه. بچهها معمولاً غیررسمی و بدون نظارت از رباتای چت استفاده میکنن. تحقیقات سازمان غیرانتفاعی Common Sense Media نشون داده که 50٪ از دانشآموزای 12 تا 18 ساله از Chat GPT برای مدرسه استفاده کردن، در حالی که فقط 26٪ از والدین از این موضوع خبر دارن.
اهمیت اینکه طراحی برای بچهها امن باشه
کوریان میگه که اصول مشخص برای بهترین روشها که از علم رشد بچهها استفاده میکنه، میتونه شرکتهایی رو که بیشتر به فکر رقابت تو بازار هوش مصنوعی هستن، تشویق کنه که بچهها رو امن نگه دارن. اون اضافه میکنه که فاصله تو همدردی به این معنی نیست که پتانسیل فنآوری رو نادیده بگیریم. «اگه هوش مصنوعی با نیازهای بچهها ساخته بشه، میتونه یه همیار فوقالعاده براشون باشه. سوال این نیست که باید هوش مصنوعی رو ممنوع کنیم یا نه، سوال اینه که چطوری میتونیم امنش کنیم.»
تو این تحقیق، یه دستورالعمل 28 سوالی هست تا به معلمها، محققها، سیاستگذارا، خانوادهها و تولیدکنندهها کمک کنه که امنیت این ابزارهای جدید هوش مصنوعی رو بررسی و بهتر کنن. برای معلمها و محققها، این سوالا راجع به اینه که رباتهای چت جدید چقدر حرف زدن بچهها رو میفهمن؛ فیلتر محتوا و نظارت داخلی دارن یا نه؛ آیا بچهها رو تشویق میکنن که تو مسائل حساس از یه بزرگتر کمک بگیرن.
این دستورالعمل از تولیدکنندهها میخواد که موقع طراحی، به بچهها توجه کنن و تو کل مراحل طراحی با معلمها، کارشناسای ایمنی بچهها و جوونا همکاری کنن. کوریان میگه: «خیلی مهمه که این فنآوریها رو از قبل ارزیابی کنیم.» «ما نمیتونیم فقط به بچهها اعتماد کنیم که بعد از اینکه اتفاق بدی افتاد به ما بگن. باید از قبل پیشگیری کنیم.»
بیشتر بخوانید
مدیتیشن یک روز پربرکت برای جذب عشق وامنیت و سلامتی
خود هیپنوتیزم درمان زود انزالی در مردان توسط هیپنوتراپیست رضا خدامهری
تقویت سیستم ایمنی بدن با خود هیپنوتیزم
شمس و طغری
خود هیپنوتیزم ماندن در رژیم لاغری و درمان قطعی چاقی کاملا علمی و ایمن
خود هیپنوتیزم تقویت اعتماد به نفس و عزت نفس