تأثیر هوش مصنوعی بر اعتماد خوانندگان به اخبار

با افزایش نقش هوش مصنوعی در روزنامه‌نگاری، خبرنگاران و ویراستاران نه تنها با چگونگی استفاده از این فناوری دست و پنجه نرم می‌کنند، بلکه باید به نحوه افشای استفاده از آن به خوانندگان نیز توجه کنند. تحقیقات جدیدی از دانشگاه کانزاس نشان داده است که وقتی خوانندگان احساس می‌کنند هوش مصنوعی به نوعی در تولید اخبار دخالت دارد، اعتماد آنها به اعتبار اخبار کاهش می‌یابد، حتی زمانی که به طور کامل متوجه نمی‌شوند این فناوری چه نقشی ایفا کرده است. این یافته‌ها نشان می‌دهد که خوانندگان از استفاده از هوش مصنوعی در تولید اخبار آگاه هستند، حتی اگر این موضوع را منفی تلقی کنند.

اما درک اینکه این فناوری چه نقشی در تولید اخبار دارد و چگونه باید این اطلاعات را به خوانندگان منتقل کرد، می‌تواند پیچیده باشد. به گفته محققان، این موضوع نیاز به بررسی و توضیح واضح دارد. آلیسا آپلمن، استاد دانشگاه و نویسنده همکار دو مطالعه در این زمینه، می‌گوید: “تمرکز روزافزون هوش مصنوعی در روزنامه‌نگاری سوالی است که خبرنگاران و مربیان درباره آن صحبت می‌کنند، اما ما به این موضوع علاقه‌مند بودیم که خوانندگان چگونه آن را درک می‌کنند. بنابراین می‌خواستیم بیشتر درباره ادراکات مربوط به نام نویسندگان رسانه‌ها و تأثیر آنها، یا اینکه مردم درباره اخبار تولید شده توسط هوش مصنوعی چه فکر می‌کنند، بدانیم.”

آزمایش و نتایج آن

آپلمن و استیو بی‌ان-ایم، استاد دیگر دانشگاه، یک آزمایش را هدایت کردند که در آن به خوانندگان یک خبر درباره شیرین‌کننده مصنوعی آسپارتام و ایمنی آن برای مصرف انسانی نشان داده شد. خوانندگان به‌طور تصادفی یکی از پنج نام نویسنده را دریافت کردند: “نوشته شده توسط نویسنده کارکنان”، “نوشته شده توسط نویسنده کارکنان با ابزار هوش مصنوعی”، “نوشته شده توسط نویسنده کارکنان با کمک هوش مصنوعی”، “نوشته شده توسط نویسنده کارکنان با همکاری هوش مصنوعی” و “نوشته شده توسط هوش مصنوعی”. در تمامی موارد، محتوای مقاله یکسان بود. یافته‌ها در دو مقاله پژوهشی منتشر شد که هر دو توسط آپلمن و بی‌ان-ایم از دانشگاه کانزاس، به همراه هایان جیای دانشگاه لهای و مو وو از دانشگاه ایالتی کالیفرنیا، لس آنجلس نوشته شده بود.

خبرنگاران در یک اتاق خبری مدرن در حال استفاده از ابزارهای هوش مصنوعی و بحث درباره نقش فناوری در رسانه‌ها.
بحث خبرنگاران درباره تأثیر هوش مصنوعی بر تولید اخبار و چالش‌های مربوط به آن.

یکی از این مقالات بر این تمرکز داشت که چگونه خوانندگان به نام نویسندگان هوش مصنوعی معنا می‌دهند. پس از خواندن مقاله، از خوانندگان درباره معنای خاص نام نویسنده‌ای که دریافت کرده بودند و اینکه آیا با چندین جمله که به سنجش سواد رسانه‌ای و نگرش‌های آنها نسبت به هوش مصنوعی مربوط می‌شد، موافق بودند یا نه، نظرسنجی شد. نتایج نشان داد که صرف‌نظر از نام نویسنده‌ای که دریافت کرده بودند، شرکت‌کنندگان دیدگاه وسیعی درباره آنچه این فناوری انجام می‌دهد، داشتند. اکثریت گزارش دادند که احساس می‌کنند انسان‌ها اصلی‌ترین مشارکت‌کنندگان هستند، در حالی که برخی گفتند فکر می‌کنند هوش مصنوعی ممکن است به عنوان کمک تحقیقاتی یا در نوشتن پیش‌نویس اولیه که توسط یک انسان ویرایش شده، استفاده شده باشد.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول

نتایج نشان داد که شرکت‌کنندگان درک خوبی از قابلیت‌های فناوری هوش مصنوعی دارند و می‌دانند که این فناوری تحت هدایت انسان و با استفاده از دستورات عمل می‌کند. با این حال، شرایط مختلف نام نویسنده، فضای زیادی برای تفسیر در مورد اینکه این فناوری به طور خاص چگونه به مقاله‌ای که خوانده‌اند کمک کرده، باقی گذاشت. وقتی که مشارکت هوش مصنوعی در نام نویسنده ذکر شد، این موضوع به طور منفی بر ادراک خوانندگان از اعتبار منبع و نویسنده تأثیر گذاشت. حتی با نام نویسنده “نوشته شده توسط نویسنده کارکنان”، خوانندگان آن را به گونه‌ای تفسیر کردند که حداقل بخشی از آن توسط هوش مصنوعی نوشته شده است، زیرا نام یک انسان به داستان متصل نبود. نویسندگان مقاله نوشتند که خوانندگان از تکنیک معناسازی برای تفسیر مشارکت‌های هوش مصنوعی استفاده کردند.

تأثیر هوش مصنوعی بر اعتبار اخبار

این تاکتیک به معنای استفاده از اطلاعاتی است که فرد قبلاً آموخته تا بتواند درک بهتری از موقعیت‌هایی که ممکن است با آن‌ها آشنا نباشد پیدا کند. آپلمان گفت: “مردم نظرات متفاوتی درباره معنای هوش مصنوعی دارند و وقتی ما در مورد عملکرد آن شفاف نیستیم، مردم در مورد آنچه که فکر می‌کنند انجام داده، شکاف‌ها را پر می‌کنند.” نتایج نشان داد که صرف‌نظر از اینکه مردم چه تصوری از نقش هوش مصنوعی در داستان داشتند، نظرات آن‌ها درباره اعتبار اخبار تحت تأثیر منفی قرار گرفت.

گروهی از خوانندگان در حال شرکت در یک مطالعه درباره تأثیر هوش مصنوعی بر روزنامه‌نگاری، در حال خواندن مقالات و بحث درباره یافته‌ها.
خوانندگان در حال بررسی تأثیر هوش مصنوعی بر اعتبار اخبار منبع با توجه به نتایج تحقیقاتی.

این یافته‌ها در نشریه Communication Reports منتشر شد. یک مقاله تحقیقاتی دیگر بررسی کرد که چگونه درک انسانیت، رابطه بین نقش هوش مصنوعی و قضاوت‌های اعتبار را تحت تأثیر قرار می‌دهد. این تحقیق نشان داد که پذیرش هوش مصنوعی شفافیت را افزایش می‌دهد و خوانندگان احساس می‌کنند که مشارکت انسانی در اخبار اعتمادپذیری را بهبود می‌بخشد.

شرکت‌کنندگان درصدی را که فکر می‌کردند هوش مصنوعی در ایجاد مقاله نقش داشته، گزارش کردند، صرف‌نظر از اینکه کدام شرایط نام‌نویسی را دریافت کرده بودند. هرچه درصد بیشتری را اعلام کردند، قضاوت آن‌ها درباره اعتبار مقاله کمتر بود. حتی کسانی که نوشته شده توسط “نویسنده کارکنان” را خوانده بودند، گزارش کردند که احساس می‌کنند هوش مصنوعی به نوعی در این فرآیند دخیل بوده است. بی‌ان-ایمه گفت: “مسئله اصلی این نبود که آیا این کار توسط هوش مصنوعی یا انسان انجام شده است، بلکه میزان کاری بود که آن‌ها فکر می‌کردند انسان انجام داده است.” وی افزود: “این نشان می‌دهد که ما نیاز به شفافیت داریم. ما فکر می‌کنیم که خبرنگاران فرضیات زیادی دارند که ما در این حوزه می‌سازیم و مصرف‌کنندگان نمی‌دانند که ما چه می‌کنیم. آن‌ها اغلب نمی‌دانند.”

یافته‌ها نشان می‌دهد که مردم به مشارکت‌های انسانی در حوزه‌هایی مانند روزنامه‌نگاری که به طور سنتی توسط انسان‌ها انجام می‌شود، اعتبار بیشتری می‌دهند. وقتی این نقش‌ها توسط فناوری‌هایی مانند هوش مصنوعی جایگزین می‌شود، می‌تواند بر درک اعتبار تأثیر بگذارد. در حالی که ممکن است برای چیزهایی که به طور سنتی انسانی نیستند، مانند پیشنهاد ویدیوهای یوتیوب بر اساس مشاهده‌های قبلی، این‌گونه نباشد.

تصویری مفهومی از تأثیر هوش مصنوعی بر اعتبار اخبار، با تمرکز بر یک خواننده در حال تحلیل مقالات تولید شده توسط AI و نویسندگان انسانی.
تحلیل خوانندگان از تفاوت‌های بین مقالات تولید شده توسط هوش مصنوعی و نوشته‌های انسانی برای ارزیابی اعتبار آنها.

در حالی که می‌توان این موضوع را مثبت تلقی کرد که خوانندگان تمایل دارند اخبار نوشته شده توسط انسان را معتبرتر بدانند، خبرنگاران و مربیان باید در درک لزوم افشاگری نحوه استفاده از هوش مصنوعی شفاف باشند. شفافیت یک عمل صحیح است، همان‌طور که در یک رسوایی اوایل امسال نشان داده شد که Sports Illustrated متهم به انتشار مقالات تولید شده توسط هوش مصنوعی بود که به عنوان نوشته‌های انسان ارائه شده بودند. با این حال، محققان استدلال می‌کنند که صرفاً بیان اینکه از هوش مصنوعی استفاده شده، ممکن است برای مردم کافی نباشد تا بفهمند که این فناوری چه کاری انجام داده و آیا احساس می‌کنند که بیشتر از یک انسان کمک کرده است، که می‌تواند بر درک اعتبار تأثیر منفی بگذارد.

یافته‌ها درباره مالکیت ادبی و انسانیت در نشریه Computers in Human Behavior: Artificial Humans منتشر شد. هر دو مقاله نشریه نشان می‌دهند که تحقیقات بیشتری باید ادامه یابد تا درک خوانندگان از مشارکت‌های هوش مصنوعی در روزنامه‌نگاری بررسی شود و همچنین پیشنهاد می‌کنند که روزنامه‌نگاری به عنوان یک حوزه می‌تواند از بهبود در نحوه افشای چنین رویه‌هایی بهره‌مند شود.

آپلمان و بی‌ان-ایمه به مطالعه درک خوانندگان از شیوه‌های مختلف روزنامه‌نگاری پرداخته‌اند و دریافته‌اند که خوانندگان اغلب نمی‌فهمند که افشاگری‌های خاصی مانند اصلاحات، نام‌نویسی، آموزش اخلاقی یا استفاده از هوش مصنوعی چه معنایی دارند و این درک با آنچه خبرنگاران قصد داشته‌اند، سازگار نیست. بی‌ان-ایمه گفت: “بخشی از چارچوب تحقیق ما همیشه ارزیابی این بوده که آیا خوانندگان می‌دانند خبرنگاران چه کار می‌کنند و ما می‌خواهیم به درک بهتری از اینکه مردم چگونه کار خبرنگاران را می‌بینند، ادامه دهیم.”

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *