هوش-مصنوعی-اخبار

تأثیر هوش مصنوعی بر اعتبار اخبار

با افزایش نقش هوش مصنوعی در روزنامه‌نگاری، خبرنگاران و ویراستاران نه تنها با چگونگی استفاده از این فناوری، بلکه با چگونگی افشای استفاده از آن به خوانندگان نیز دست و پنجه نرم می‌کنند. تحقیقات جدیدی از دانشگاه کانزاس نشان داده است که وقتی خوانندگان فکر می‌کنند هوش مصنوعی به نوعی در تولید اخبار دخالت دارد، اعتماد آنها به اعتبار اخبار کاهش می‌یابد، حتی زمانی که به طور کامل نمی‌دانند این فناوری چه نقشی ایفا کرده است. این یافته‌ها نشان می‌دهد که خوانندگان از استفاده از هوش مصنوعی در تولید اخبار آگاه هستند، حتی اگر این موضوع را منفی تلقی کنند. درک اینکه این فناوری چه نقشی در تولید اخبار داشته باشد و چگونه باید این اطلاعات به خوانندگان منتقل شود، مسئله‌ای است که نیاز به توجه و شفافیت دارد.

آلیسا آپلمن، استادیار در دانشکده روزنامه‌نگاری و ارتباطات جمعی ویلیام آلن وایت و یکی از نویسندگان دو مطالعه در این زمینه، گفت: “تمرکز رو به رشد هوش مصنوعی در روزنامه‌نگاری سوالی است که ما می‌دانیم خبرنگاران و مربیان درباره آن صحبت می‌کنند، اما ما به این موضوع علاقه‌مند بودیم که خوانندگان چگونه آن را درک می‌کنند. بنابراین می‌خواستیم بیشتر درباره ادراکات مربوط به امضای رسانه‌ای و تأثیر آن، و همچنین دیدگاه مردم درباره اخبار تولید شده توسط هوش مصنوعی بدانیم.”

آپلمن و استیو بی‌ن‌ایم، استادیار در همان دانشکده، یک آزمایش را رهبری کردند که در آن به خوانندگان یک خبر درباره شیرین‌کننده مصنوعی آسپارتام و ایمنی آن برای مصرف انسانی نشان داده شد. خوانندگان به‌طور تصادفی یکی از پنج نوع امضا را دریافت کردند: “نوشته شده توسط نویسنده کارکنان”، “نوشته شده توسط نویسنده کارکنان با ابزار هوش مصنوعی”، “نوشته شده توسط نویسنده کارکنان با کمک هوش مصنوعی”، “نوشته شده توسط نویسنده کارکنان با همکاری هوش مصنوعی” و “نوشته شده توسط هوش مصنوعی”. مقاله در همه موارد دیگر یکسان بود. یافته‌ها در دو مقاله تحقیقاتی منتشر شد که هر دو توسط آپلمن و بی‌ن‌ایم از دانشگاه کانزاس، به همراه هایان جی از دانشگاه لهای و مو وو از دانشگاه ایالتی کالیفرنیا، لس آنجلس نوشته شده‌اند.

یکی از مقالات بر این تمرکز داشت که چگونه خوانندگان به امضاهای مربوط به هوش مصنوعی معنا می‌دهند. پس از خواندن مقاله، از خوانندگان درباره معنای خاص امضایی که دریافت کرده بودند و اینکه آیا با چندین بیانیه که به سنجش سواد رسانه‌ای و نگرش‌های آنها نسبت به هوش مصنوعی مربوط می‌شد، موافق بودند، نظرسنجی شد. یافته‌ها نشان داد که صرف‌نظر از امضایی که دریافت کرده بودند، شرکت‌کنندگان دیدگاه وسیعی درباره آنچه این فناوری انجام می‌دهد، داشتند. اکثریت گزارش کردند که احساس می‌کنند انسان‌ها اصلی‌ترین مشارکت‌کنندگان هستند، در حالی که برخی گفتند که فکر می‌کنند هوش مصنوعی ممکن است به عنوان کمک تحقیقاتی یا در نوشتن پیش‌نویس اولیه که توسط یک انسان ویرایش شده باشد، استفاده شده باشد.

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول
عکسی از یک خبرنگار که در حال مطالعه تحلیل‌های مربوط به اعتماد به مقالات خبری است و نگران به نظر می‌رسد.
تصویر خبرنگاری که وزن مسئولیت خود را در اعتماد به اخبار احساس می‌کند.

نتایج نشان داد که شرکت‌کنندگان درک خوبی از قابلیت‌های فناوری هوش مصنوعی دارند و می‌دانند که این فناوری تحت هدایت انسان با دستورات کار می‌کند. با این حال، شرایط مختلف امضاها باعث شد که افراد در مورد اینکه این فناوری چگونه به مقاله‌ای که خوانده‌اند کمک کرده، تفسیرهای متفاوتی داشته باشند. زمانی که به مشارکت هوش مصنوعی در امضا اشاره شد، این موضوع تأثیر منفی بر ادراک خوانندگان از اعتبار منبع و نویسنده داشت. حتی با وجود امضای “نوشته شده توسط نویسنده کارکنان”، خوانندگان آن را به گونه‌ای تفسیر کردند که حداقل بخشی از آن توسط هوش مصنوعی نوشته شده است، زیرا نام یک انسان به داستان متصل نبود. نویسندگان نوشتند که خوانندگان از تکنیک «معناسازی» برای تفسیر مشارکت‌های هوش مصنوعی استفاده کردند.

تأثیرات هوش مصنوعی بر اعتبار اخبار

این تاکتیک به معنای استفاده از اطلاعاتی است که قبلاً آموخته شده تا بتوان درک بهتری از موقعیت‌های ناآشنا داشت. آپلمن می‌گوید: “مردم نظرات متفاوتی درباره‌ی معنای هوش مصنوعی دارند و وقتی که ما در مورد عملکرد آن روشن نیستیم، مردم درک خود را از آنچه فکر می‌کنند هوش مصنوعی انجام داده، پر می‌کنند.” نتایج نشان داد که صرف‌نظر از اینکه مردم چه تصوری از نقش هوش مصنوعی در داستان داشتند، نظرات آن‌ها درباره‌ی اعتبار اخبار تحت تأثیر منفی قرار گرفت. این یافته‌ها در نشریه Communication Reports منتشر شد.

نقش ادراک انسانی در ارزیابی اعتبار

مقاله‌ی تحقیقاتی دومی بررسی کرد که چگونه ادراک از انسانی بودن، رابطه بین نقش ادراک‌شده‌ی هوش مصنوعی و قضاوت‌های اعتبار را میانجی‌گری می‌کند. این تحقیق نشان داد که پذیرش هوش مصنوعی باعث افزایش شفافیت می‌شود و خوانندگان احساس می‌کنند که مشارکت انسانی در اخبار، اعتمادپذیری را بهبود می‌بخشد. شرکت‌کنندگان درصدی را که فکر می‌کردند هوش مصنوعی در ایجاد مقاله نقش داشته، گزارش کردند، بدون توجه به اینکه کدام شرایط نام‌نویسی را دریافت کرده‌اند. هرچه درصد بیشتری را اعلام کردند، قضاوت آن‌ها درباره‌ی اعتبار مقاله کمتر بود. حتی کسانی که نوشته‌ای با عنوان “نوشته شده توسط نویسنده‌ی کارکنان” خوانده بودند، گزارش دادند که احساس می‌کنند هوش مصنوعی به نوعی در این کار دخالت داشته است.

تصویری از گروهی از خوانندگان در یک کافه، که به مقالات در تلفن‌های هوشمند خود نگاه می‌کنند و ابراز تردید می‌کنند.
خوانندگان مختلف که در حال بررسی مقالات و تأثیر هوش مصنوعی بر اعتبار اخبار هستند.

بیان‌آیمه گفت: “مسئله‌ی اصلی این نبود که آیا کار توسط هوش مصنوعی یا انسان انجام شده است، بلکه میزان کاری بود که آن‌ها فکر می‌کردند انسان انجام داده است.” این نشان می‌دهد که ما باید شفاف باشیم. ما فکر می‌کنیم که روزنامه‌نگاران فرضیات زیادی دارند که در زمینه‌ی خود می‌سازند و مصرف‌کنندگان می‌دانند که ما چه می‌کنیم. اما اغلب این‌طور نیست.”

تأثیر فناوری بر اعتبار اخبار

یافته‌ها نشان می‌دهد که مردم به مشارکت‌های انسانی در زمینه‌هایی مانند روزنامه‌نگاری که به طور سنتی توسط انسان‌ها انجام می‌شود، اعتباری بیشتری می‌دهند. زمانی که این نقش‌ها با فناوری‌هایی مانند هوش مصنوعی جایگزین می‌شوند، می‌تواند بر ادراکات اعتبار تأثیر بگذارد، در حالی که ممکن است این تأثیر برای چیزهایی که به طور سنتی انسانی نیستند، مانند پیشنهاد ویدیوهای یوتیوب بر اساس مشاهده‌های قبلی، وجود نداشته باشد. نویسندگان این مقاله بیان کردند که در حالی که ممکن است مثبت باشد که خوانندگان تمایل دارند اخبار نوشته شده توسط انسان را معتبرتر بدانند، روزنامه‌نگاران و مربیان نیز باید درک کنند که باید در افشای چگونگی یا استفاده از هوش مصنوعی شفاف باشند. شفافیت یک عمل صحیح است، همان‌طور که در یک رسوایی اوایل امسال نشان داده شد که مجله Sports Illustrated متهم به انتشار مقالات تولید شده توسط هوش مصنوعی به عنوان مقالات نوشته شده توسط انسان‌ها شد.

رسمی از یک نمودار که جریان اطلاعات از خبرنگاران به مخاطبان را نشان می‌دهد، با نمادهایی از تکنولوژی هوش مصنوعی.
نموداری که چگونگی ارتباط میان روزنامه‌نگاری و فناوری هوش مصنوعی را توضیح می‌دهد.

با این حال، محققان استدلال می‌کنند که فقط بیان اینکه هوش مصنوعی استفاده شده، ممکن است برای مردم به اندازه کافی روشن نباشد تا بفهمند که این فناوری چه کاری انجام داده و آیا احساس می‌کنند که هوش مصنوعی بیشتر از یک انسان کمک کرده است یا نه، که می‌تواند بر ادراکات اعتبار تأثیر منفی بگذارد.

نیاز به تحقیقات بیشتر

یافته‌ها درباره‌ی ادراک نویسندگی و انسانی بودن در نشریه Computers in Human Behavior: Artificial Humans منتشر شده است. هر دو مقاله‌ی نشریه نشان می‌دهند که تحقیقات بیشتری باید ادامه یابد تا بررسی شود که خوانندگان چگونه مشارکت‌های هوش مصنوعی در روزنامه‌نگاری را درک می‌کنند و همچنین پیشنهاد می‌دهند که روزنامه‌نگاری به عنوان یک حوزه می‌تواند از بهبود در چگونگی افشای این شیوه‌ها بهره‌مند شود. آپلمن و بیان‌آیمه در حال مطالعه‌ی درک خوانندگان از شیوه‌های مختلف روزنامه‌نگاری هستند و دریافته‌اند که خوانندگان اغلب آنچه را که افشاگری‌های خاصی مانند اصلاحات، نام‌نویسی، آموزش اخلاقی یا استفاده از هوش مصنوعی به معنای آن است، به روشی که روزنامه‌نگاران قصد داشتند، درک نمی‌کنند.

بیان‌آیمه گفت: “بخشی از چارچوب تحقیق ما همیشه ارزیابی این بوده که آیا خوانندگان می‌دانند روزنامه‌نگاران چه کارهایی انجام می‌دهند و ما می‌خواهیم به درک بهتری از اینکه مردم چگونه کار روزنامه‌نگاران را می‌بینند، ادامه دهیم.”

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *