تاثیر هوش مصنوعی روی اطمینان خواننده‌ها به خبر

با زیاد شدن نقش هوش مصنوعی توی کار روزنامه‌نگاری، خبرنگارها و ویراستارها نه تنها باید با این فن‌آوری جدید چطور کار کردن دست‌وپنجه نرم کنن، بلکه باید ببینن چطور باید استفاده‌شون رو ازش لو بدن به خواننده‌ها. تحقیقات جدید از دانشگاه کانزاس نشون داده وقتی خواننده‌ها حس می‌کنن هوش مصنوعی یه جورایی توی ساختن خبر نقش داره، اعتمادشون به درست بودن خبر کم می‌شه، حتی وقتی نمی‌فهمن این تکنولوژی کجای کار بوده. این کشف‌ها نشون می‌ده خواننده‌ها می‌فهمن هوش مصنوعی داره توی تولید خبر استفاده می‌شه، حتی اگه خوب ندونن این ماجرا رو.

ولی این ‌که آدم بفهمه این فن‌آوری چه نقشی توی تولید خبر داره و چطوری باید این اطلاعات رو به خواننده‌ها منتقل کرد، می‌تونه پیچیده باشه. دانشمندا می‌گن این موضوع نیاز داره که بیشتر بررسی بشه و روشن توضیح داده بشه. آلیسا آپلمن، استاد دانشگاه و نویسنده‌ی مشترک دو تا تحقیق توی این زمینه، می‌گه: “خیلی به هوش مصنوعی دارن توی روزنامه‌نگاری توجه می‌کنن و این یه سواله که خبرنگارها و مربی‌ها دارن دربارش حرف می‌زنن، ولی ما می‌خواستیم بدونیم خواننده‌ها چطور اینو درک می‌کنن. واسه همین می‌خواستیم بیشتر بدونیم مردم چه فکری می‌کنن درباره‌ی اسم نویسنده‌های رسانه‌ها و تاثیرش، یا این‌که مردم درباره‌ی خبرهایی که هوش مصنوعی تولید می‌کنه چی فکر می‌کنن.”

آزمایش و نتایجش

آپلمن و استیو بی. ان. ایم، استاد دیگه دانشگاه، یه آزمایش رو راه انداختن که توش به خواننده‌ها یه خبر درباره‌ی شیرین‌کننده‌ی مصنوعی آسه پارتام نشون داده شد و این‌که برای خوردن ضرر نداره. خواننده‌ها به‌طور رندوم اسم یکی از پنج تا نویسنده رو دیدن: “نوشته شده توسط نویسنده کارکنان”، “نوشته شده توسط نویسنده کارکنان با ابزار هوش مصنوعی”، “نوشته شده توسط نویسنده کارکنان با کمک هوش مصنوعی”، “نوشته شده توسط نویسنده کارکنان با همکاری هوش مصنوعی” و “نوشته شده توسط هوش مصنوعی”. توی همه‌ی موارد، محتوای مقاله یکی بود. این چیزها توی دو تا مقاله‌ی تحقیقاتی منتشر شدن که هردوتاشون رو آپلمن و بی. ان. ایم از دانشگاه کانزاس نوشتن، به همراه هایان جیای از دانشگاه لهای و مو وو از دانشگاه ایالتی کالیفرنیا، لس آنجلس.

عکس
بحث خبرنگارا درباره‌ی تاثیر هوش مصنوعی روی تولید خبر و سختیاش.

یکی از این مقاله‌ها تمرکزش روی این بود که چطور خواننده‌ها به اسم نویسنده‌های هوش مصنوعی معنی می‌دن. بعد از خوندن مقاله از خواننده‌ها درباره‌ی معنی خاص‌اسم نویسنده‌ای که دیدن پرسیده شد و این‌که با یه سری جمله که سطح سواد رسانه‌ای و نظرشون رو درباره‌ی هوش مصنوعی نشون می‌داد، موافق بودن یا نه. نتایج نشون داد که فارغ از اسم نویسنده‌ای که دیدن، شرکت‌کننده‌ها یه دید کلی درباره‌ی این‌که این تکنولوژی داره چی کار می‌کنه داشتن. بیشترشون گفتن حس می‌کنن آدما نقش اصلی رو داشتن، درحالی‌که یه عده گفتن فکر می‌کنن هوش مصنوعی شاید به عنوان یه کمک پژوهشی یا توی نوشتن پیش‌نویس اولیه که بعد یه آدم درستش کرده، استفاده شده باشه.

نتایج نشون داد که شرکت‌کننده‌ها فهم خوبی از توانایی‌های فن‌آوری هوش مصنوعی دارن و می‌دونن این فن‌آوری تحت فرمان انسانه و با دستور کار می‌کنه. با این حال، اسم‌های مختلف نویسنده‌ها، جا برای این‌که آدم تفسیر کنه این تکنولوژی چطوری به مقاله‌ای که خوندن کمک کرده، باز می‌ذاشت. وقتی مشارکت هوش مصنوعی توی اسم نویسنده ذکر می‌شد، این موضوع، نظر خواننده‌ها درباره‌ی درست بودن منبع و نویسنده رو بد می‌کرد. حتی توی اسم نویسنده “نوشته شده توسط نویسنده کارکنان” هم، خواننده‌ها این‌جوری برداشت کردن که یه قسمتیش رو هوش مصنوعی نوشته، چون اسم یه آدم به داستان وصل نبود. نویسنده‌های مقاله نوشتن که خواننده‌ها از تکنیک معنا دادن استفاده کردن تا مشارکت‌های هوش مصنوعی رو بفهمن.

تاثیر هوش مصنوعی روی اعتبار خبر

این تاکتیک یعنی استفاده از اطلاعاتی که آدم قبلا یاد گرفته تا بتونه یه درک بهتر از موقعیت‌هایی که شاید براش جدید باشه، پیدا کنه. آپلمن گفت: “مردم نظرهای مختلفی درباره‌ی معنی هوش مصنوعی دارن و وقتی ما درباره‌ی این‌که چطوری کار می‌کنه شفاف نیستیم، مردم جای خالی‌ها رو با اون‌چیزی که فکر می‌کنن داره می‌کنه، پر می‌کنن.” نتایج نشون داد که فارغ از این‌که مردم چه فکری درباره‌ی نقش هوش مصنوعی توی داستان داشتن، نظراتشون درباره‌ی اعتبار خبر تحت تاثیر منفی قرار گرفت.

عکس
خواننده‌ها دارن تاثیر هوش مصنوعی رو روی اعتبار خبر با توجه به نتیجه‌های تحقیق، بررسی می‌کنن.

این یافته‌ها توی نشریه Communication Reports چاپ شد. یه مقاله‌ی تحقیقاتی دیگه بررسی کرد که چطوری فهم آدما از این‌که این کار انسانیه، رابطه بین نقش هوش مصنوعی و قضاوت درباره‌ی اعتبار رو تحت تاثیر قرار می‌ده. این تحقیق نشون داد که اگه هوش مصنوعی باز باشه، اوضاع بهتر می‌شه و خواننده‌ها حس می‌کنن اگه آدم‌ها توی خبر نقش داشته باشن، اعتماد بیشتر می‌شه.

شرکت‌کننده‌ها درصدی رو که فکر می‌کردن هوش مصنوعی توی ساختن مقاله نقش داشته، گفتن، فارغ از این‌که اسم نویسنده چی بود. هرچی درصدش بیشتر بود، قضاوتشون درباره‌ی اعتبار مقاله کمتر می‌شد. حتی کسایی که “نوشته شده توسط نویسنده کارکنان” رو خونده بودن، گفتن حس می‌کنن یه جوری هوش مصنوعی توی این فرآیند نقش داشته. بی. ان. ایم گفت: “مسئله اصلی این نبود که این کارو هوش مصنوعی کرده یا یه آدم، مسئله این بود که چقدر کار رو فکر می‌کردن آدم انجام داده.” اون اضافه کرد: “این نشون می‌ده که باید شفاف باشیم. ما فکر می‌کنیم خبرنگارها فرض‌های زیادی می‌کنن که ما توی این حوزه می‌سازیم و مصرف‌کننده‌ها نمی‌دونن ما داریم چی کار می‌کنیم. معمولا نمی‌دونن.”

این یافته‌ها نشون می‌ده که مردم به مشارکت‌های انسانی توی حوزه‌هایی مثل روزنامه‌نگاری که معمولا آدما انجامش می‌دن، بیشتر اعتماد می‌کنن. وقتی این نقش‌ها رو فن‌آوری‌هایی مثل هوش مصنوعی جایگزین می‌کنن، می‌تونه روی این‌که آدم چقدر اعتماد می‌کنه، تاثیر بذاره. درحالی‌که شاید برای چیزهایی که معمولا انسانی نیستن، مثل پیشنهاد ویدیوهای یوتیوب بر اساس چیزایی که قبل دیدی، این‌جوری نباشه.

عکس
تحلیل خواننده‌ها از تفاوت‌های بین مقاله‌هایی که هوش مصنوعی ساخته و متن‌هایی که آدم نوشته تا ببینن چقدر اعتبار دارن.

درسته که می‌شه اینو خوب دونست که خواننده‌ها تمایل دارن به خبرهایی که آدم نوشته بیشتر اعتماد کنن، خبرنگارها و مربی‌ها باید بفهمن که باید چطور شفاف‌سازی کنن درباره‌ی استفاده از هوش مصنوعی. شفاف بودن یه کار خوبه، همون‌طور که توی یه خبر پارسال نشون داده شد که Sports Illustrated متهم شد به این‌که مقاله‌هایی رو که هوش مصنوعی نوشته بود، به‌عنوان چیزایی که آدم نوشته، منتشر کرده بود. با این حال، محقق‌ها می‌گن این‌که فقط بگن از هوش مصنوعی استفاده شده، شاید برای مردم کافی نباشه که بفهمن این تکنولوژی چی کار کرده و آیا فکر می‌کنن بیشتر از یه آدم کمک کرده، که می‌تونه روی این‌که چقدر اعتماد می‌کنن تاثیر منفی بذاره.

این یافته‌ها درباره‌ی مالکیت مادی و انسانی بودن توی نشریه‌ی Computers in Human Behavior: Artificial Humans چاپ شد. هر دو مقاله‌ی نشریه نشون می‌ده که تحقیقات بیشتری باید انجام بشه تا فهم خواننده‌ها از مشارکت‌های هوش مصنوعی توی روزنامه‌نگاری بررسی بشه و هم‌چنین پیشنهاد می‌کنن که روزنامه‌نگاری به عنوان یه حوزه می‌تونه از بهتر شدن توی این‌که چطور این کارا رو لو می‌دن، سود ببره.

آپلمن و بی. ان. ایم به مطالعه‌ی درک خواننده‌ها از شیوه‌های مختلف روزنامه‌نگاری پرداختن و فهمیدن که خواننده‌ها معمولا نمی‌فهمن که بعضی از چیزا مثل اصلاح کردن، اسم گذاشتن، آموزش اخلاقی یا استفاده از هوش مصنوعی چه معنی‌ای داره و این فهم با اون‌چیزی که خبرنگارها می‌خواستن، هم‌خوانی نداره. بی. ان. ایم گفت: “یه قسمتی از کار ما این بوده که ببینیم آیا خواننده‌ها می‌دونن خبرنگارها دارن چی کار می‌کنن و ما می‌خوایم بهتر بفهمیم که مردم چطوری کار خبرنگارها رو می‌بینن.”

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *