گپ همدلی در چتباتهای هوش مصنوعی و نیاز به AI ایمن برای کودکان
طبق یک مطالعه، چتباتهای هوش مصنوعی (AI) به طور مکرر نشانههایی از گپ همدلی را نشان دادهاند که کاربران جوان را در معرض خطر ناراحتی یا آسیب قرار میدهد. این موضوع نیاز فوری به هوش مصنوعی ایمن برای کودکان را مطرح میکند. این تحقیق که توسط دکتر نومیشا کوریان از دانشگاه کمبریج انجام شده، از توسعهدهندگان و سیاستگذاران میخواهد تا طراحی هوش مصنوعی را با توجه بیشتری به نیازهای کودکان اولویت دهند.
این مطالعه شواهدی ارائه میدهد که کودکان بهویژه مستعد هستند چتباتها را به عنوان همصحبتهای شبهانسانی و واقعی در نظر بگیرند. تعاملات آنها با این فناوری ممکن است زمانی به مشکل بربخورد که چتباتها نتوانند به نیازها و آسیبپذیریهای خاص آنها پاسخ دهند. این تحقیق ارتباط این گپ در درک را به موارد اخیر پیوند میزند که در آنها تعاملات با هوش مصنوعی به موقعیتهای بالقوه خطرناک برای کاربران جوان منجر شده است. به عنوان مثال، در سال 2021، دستیار صوتی هوش مصنوعی آمازون، الکسا، به یک دختر 10 ساله دستور داد که با یک سکه به یک پریز برق زنده دست بزند. سال گذشته، چتبات My AI در اسنپچت به محققان بزرگسالی که خود را به عنوان یک دختر 13 ساله معرفی کرده بودند، نکاتی درباره از دست دادن باکرگی به یک مرد 31 ساله ارائه داد.
هر دو شرکت به این حوادث واکنش نشان دادند و اقداماتی برای ایمنی اتخاذ کردند، اما این مطالعه میگوید که همچنین نیاز به پیشگیری در بلندمدت وجود دارد تا اطمینان حاصل شود که هوش مصنوعی برای کودکان ایمن است. این تحقیق یک چارچوب 28 موردی ارائه میدهد تا به شرکتها، معلمان، مدیران مدارس، والدین، توسعهدهندگان و سیاستگذاران کمک کند به طور سیستماتیک درباره چگونگی حفظ ایمنی کاربران جوان هنگام صحبت با چتباتهای هوش مصنوعی فکر کنند.
دکتر کوریان این تحقیق را در حین تکمیل دکتری خود در زمینه رفاه کودکان در دانشکده آموزش دانشگاه کمبریج انجام داد و اکنون در دپارتمان جامعهشناسی کمبریج مشغول به کار است. او در مقالهای که در نشریه Learning, Media and Technology منتشر شده، بیان میکند که پتانسیل عظیم هوش مصنوعی به معنای نیاز به نوآوری مسئولانه است. دکتر کوریان میگوید: “کودکان احتمالاً مهمترین ذینفعان نادیده گرفته شده هوش مصنوعی هستند. تعداد بسیار کمی از توسعهدهندگان و شرکتها در حال حاضر سیاستهای مشخصی در زمینه هوش مصنوعی ایمن برای کودکان دارند. این موضوع قابل درک است زیرا مردم به تازگی شروع به استفاده از این فناوری به طور گسترده و رایگان کردهاند. اما اکنون که این فناوری در دسترس است، به جای اینکه شرکتها پس از به خطر افتادن کودکان خود را اصلاح کنند، ایمنی کودکان باید در تمام چرخه طراحی لحاظ شود تا خطر وقوع حوادث خطرناک کاهش یابد.”
📢 اگر عاشق علم هستید و نمیخواهید هیچ مقالهای را از دست بدهید…
به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر میشوند.
📲 عضویت در کانال تلگرام🎨 ربات رایگان ساخت عکس با هوش مصنوعی
با ربات @ai_photo_bbot، هر متنی را به تصویر تبدیل کنید! 🚀
ربات کاملاً رایگان است و منتظر ایدههای جذاب شماست. 🌟
تحقیق کوریان به بررسی مواردی پرداخت که تعاملات بین هوش مصنوعی و کودکان یا محققان بزرگسالی که به عنوان کودکان خود را معرفی کرده بودند، خطرات بالقوهای را نمایان کرد. این موارد با استفاده از بینشهای علوم کامپیوتر درباره نحوه عملکرد مدلهای زبانی بزرگ (LLMs) در هوش مصنوعی تولیدی گفتگویی تحلیل شد، به همراه شواهدی درباره توسعه شناختی، اجتماعی و عاطفی کودکان. LLMها به عنوان طوطیهای تصادفی توصیف شدهاند؛ اشاره به این واقعیت که آنها از احتمالهای آماری برای تقلید الگوهای زبانی استفاده میکنند بدون اینکه لزوماً آنها را درک کنند. یک روش مشابه پایهگذار نحوه پاسخگویی آنها به احساسات است. این بدان معناست که حتی اگر چتباتها تواناییهای زبانی قابل توجهی داشته باشند، ممکن است در مدیریت جنبههای انتزاعی، عاطفی و غیرقابل پیشبینی گفتگو ضعیف عمل کنند؛ مشکلی که کوریان آن را گپ همدلی مینامد.
چالشهای کودکان در تعامل با رباتهای چت
کودکان ممکن است در پاسخ به رباتهای چت با مشکلات خاصی مواجه شوند، زیرا آنها هنوز در حال توسعه زبان هستند و اغلب از الگوهای گفتاری غیرمعمول یا عبارات مبهم استفاده میکنند. همچنین، کودکان معمولاً بیشتر از بزرگترها تمایل دارند اطلاعات شخصی حساس را با دیگران در میان بگذارند. با این حال، آنها به مراتب بیشتر از بزرگسالان رباتهای چت را به عنوان موجوداتی انسانی تلقی میکنند.
تحقیقات اخیر نشان داده است که کودکان بیشتر از بزرگسالان در مورد سلامت روان خود با رباتهای دوستانه صحبت میکنند. مطالعهای که توسط کوریان انجام شده، نشان میدهد که طراحی دوستانه و شبیه به انسان بسیاری از رباتهای چت به کودکان کمک میکند تا به آنها اعتماد کنند، حتی اگر هوش مصنوعی نتواند احساسات یا نیازهای آنها را درک کند. کوریان میگوید: “صدا دادن به یک ربات چت به شکل انسانی میتواند به کاربر کمک کند تا از آن بیشتر بهرهبرداری کند.” اما برای یک کودک، کشیدن مرز مشخص و منطقی بین چیزی که به نظر انسانی میرسد و واقعیتی که ممکن است قادر به ایجاد ارتباط عاطفی مناسب نباشد، بسیار دشوار است.
چالشهای موجود در تعامل با رباتهای چت
مطالعه او نشان میدهد که این چالشها در مواردی مانند حوادث الکسا و مایایآی مشهود است، جایی که رباتهای چت پیشنهادات قانعکننده اما بالقوه مضر ارائه کردند. در همان مطالعهای که مایایآی به یک نوجوان فرضی در مورد چگونگی از دست دادن بکارتش مشاوره داد، محققان توانستند نکاتی درباره پنهان کردن الکل و مواد مخدر و مخفی کردن مکالمات اسنپچت از «والدین» خود به دست آورند. در یک تعامل جداگانه با ربات چت بینگ مایکروسافت، که برای نوجوانان طراحی شده بود، هوش مصنوعی رفتار تهاجمی از خود نشان داد و شروع به گازلایت کردن یک کاربر کرد.
مطالعه کوریان استدلال میکند که این موضوع میتواند برای کودکان گیجکننده و ناراحتکننده باشد، زیرا آنها ممکن است واقعاً به ربات چت به عنوان یک دوست اعتماد کنند. استفاده از رباتهای چت توسط کودکان معمولاً غیررسمی و بهطور ضعیفی تحت نظارت است. تحقیقات سازمان غیرانتفاعی Common Sense Media نشان داده است که ۵۰٪ از دانشآموزان ۱۲ تا ۱۸ ساله از Chat GPT برای مدرسه استفاده کردهاند، در حالی که تنها ۲۶٪ از والدین از این موضوع آگاه هستند.
اهمیت طراحی ایمن برای کودکان
کوریان استدلال میکند که اصول واضحی برای بهترین شیوهها که به علم توسعه کودک استناد میکند، میتواند شرکتهایی را که ممکن است بیشتر بر روی رقابت تجاری برای تسلط بر بازار هوش مصنوعی تمرکز دارند، تشویق کند که کودکان را ایمن نگه دارند. او میافزاید که فاصله همدلی به معنای نادیده گرفتن پتانسیل فناوری نیست. “هوش مصنوعی میتواند یک همپیمان فوقالعاده برای کودکان باشد، اگر با نیازهای آنها طراحی شود. سوال این نیست که آیا باید هوش مصنوعی را ممنوع کنیم، بلکه این است که چگونه میتوان آن را ایمن کرد.”
این مطالعه چارچوبی از ۲۸ سوال را پیشنهاد میکند تا به معلمان، محققان، سیاستگذاران، خانوادهها و توسعهدهندگان کمک کند تا ایمنی ابزارهای جدید هوش مصنوعی را ارزیابی و تقویت کنند. برای معلمان و محققان، این سوالات به مسائلی مانند اینکه چقدر رباتهای چت جدید الگوهای گفتاری کودکان را درک و تفسیر میکنند؛ آیا آنها فیلترهای محتوایی و نظارت داخلی دارند؛ و آیا آنها کودکان را تشویق میکنند تا در مسائل حساس از یک بزرگسال مسئول کمک بگیرند، میپردازد.
این چارچوب از توسعهدهندگان میخواهد که رویکردی کودکمحور در طراحی اتخاذ کنند و در طول چرخه طراحی با معلمان، کارشناسان ایمنی کودک و جوانان همکاری کنند. کوریان میگوید: “ارزیابی این فناوریها از قبل بسیار مهم است.” “ما نمیتوانیم فقط به کودکان کوچک اعتماد کنیم که بعد از وقوع تجربیات منفی به ما بگویند. یک رویکرد پیشگیرانه ضروری است.”
بیشتر بخوانید
مدیتیشن یک روز پربرکت برای جذب عشق وامنیت و سلامتی
خود هیپنوتیزم درمان زود انزالی در مردان توسط هیپنوتراپیست رضا خدامهری
تقویت سیستم ایمنی بدن با خود هیپنوتیزم
شمس و طغری
خود هیپنوتیزم ماندن در رژیم لاغری و درمان قطعی چاقی کاملا علمی و ایمن
خود هیپنوتیزم تقویت اعتماد به نفس و عزت نفس