هوش-مصنوعی-پزشکی

توصیه‌های تازه برای بهبود هوش مصنوعی در پزشکی

بیماران می‌توانند از پیشرفت‌های هوش مصنوعی (AI) در حوزه‌ی پزشکی بهره‌مند بشن، به شرطی که مجموعه‌ای از توصیه‌های بین‌المللی رعایت بشه. این مجموعه‌ی جدید که توی مجله‌های The Lancet Digital Health و NEJM AI منتشر شده، هدفش اینه که نحوه استفاده از داده‌ها برای ساخت فناوری‌های سلامت مبتنی بر هوش مصنوعی رو بهتر کنه و خطر جانبداری‌های احتمالی هوش مصنوعی رو به حداقل برسونه.

فناوری‌های نوآورانه هوش مصنوعی پزشکی می‌تونن تشخیص و درمان بیماران رو بهبود بدن. اما، بعضی از تحقیقات نشون دادن که هوش مصنوعی پزشکی ممکنه جانبدارانه عمل کنه، یعنی برای بعضی از افراد خوب کار کنه و برای بعضی دیگه نه. این یعنی ممکنه بعضی از افراد و جامعه‌ها “از قافله عقب بمونن” یا حتی بر اثر استفاده از این فناوری‌ها آسیب ببینن.

طرح بین‌المللی ‘STANDING Together’

یک طرح بین‌المللی به اسم ‘STANDING Together’ (به معنی استانداردهای تنوع داده‌ها، فراگیری و همه‌گیرسازی) توصیه‌هایی رو منتشر کرده که حاصل یه مطالعه‌ی تحقیقاتی گسترده است که توش بیش از ۳۵۰ متخصص از ۵۸ کشور مشارکت داشتن. این توصیه‌ها برای این طراحی شدن که مطمئن بشن هوش مصنوعی پزشکی می‌تونه برای همه امن و مؤثر باشه. این توصیه‌ها به عوامل متعددی که می‌تونن به جانبدارانه شدن هوش مصنوعی کمک کنن، می‌پردازن. از جمله:

تصویری از تعامل بیماران متنوع با فناوری‌های پزشکی پیشرفته و خوشبینانه درباره هوش مصنوعی.
نقش‌ آفرینی هوش مصنوعی در ارائه‌ی خدمات درمانی بهتر برای همه بیماران.
  • تشویق به توسعه‌ی هوش مصنوعی پزشکی با استفاده از مجموعه‌های داده‌ی مناسب سلامت که به‌درستی نماینده‌ی همه‌ی افراد جامعه باشن، از جمله گروه‌های اقلیت و کسانی که خدمات کمتری دریافت می‌کنن؛
  • کمک به هر کسی که مجموعه داده‌های سلامت رو منتشر می‌کنه تا بتونه جانبداری‌ها یا محدودیت‌های موجود در داده‌ها رو شناسایی کنه؛
  • فراهم کردن امکان ارزیابی مناسب بودن یک مجموعه‌ی داده برای اهداف توسعه‌دهندگان فناوری‌های هوش مصنوعی پزشکی؛
  • تعریف چگونگی آزمایش فناوری‌های هوش مصنوعی به منظور شناسایی جانبداری‌ها و بررسی اینکه آیا در مورد برخی از افراد، عملکرد کمتری دارن یا نه.

دکتر شیائو لیو، استاد همکار هوش مصنوعی و فن‌آوری‌های دیجیتال سلامت در دانشگاه بیرمنگام و محقق اصلی این مطالعه گفت: “داده‌ها مثل یه آینه هستن که واقعیت رو نشون می‌دن. وقتی این داده‌ها تحریف بشن، می‌تونن تعصبات اجتماعی رو بزرگ‌تر کنن. اما تلاش برای اصلاح داده‌ها به تنهایی، مثل اینه که بخوای یه لکه رو از روی لباست پاک کنی اما خودت همون لباس رو پوشیدی.”

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول

او اضافه کرد: “برای ایجاد تغییرات پایدار در برابری سلامت، باید به‌جای تمرکز روی بازتاب، روی اصلاح منبع تمرکز کنیم.”

تصویری از همکاری جهانی کارشناسان در مورد ابتکار 'STANDING Together' و تأکید بر تنوع داده‌ها.
همکاری بین‌المللی برای تضمین تنوع و فراگیری در داده‌های سلامت، جهت استفاده از هوش مصنوعی.

توصیه‌های STANDING Together برای ارتقای تنوع در داده‌های پزشکی هوش مصنوعی

توصیه‌های STANDING Together برای این طراحی شدن که مطمئن بشن مجموعه‌های داده‌ای که برای آموزش و آزمایش سیستم‌های هوش مصنوعی پزشکی استفاده می‌شن، تنوع کاملی از افرادی رو که قرارِ این فناوری براشون استفاده بشه، نشون بدن. این موضوع خیلی مهمه چون سیستم‌های هوش مصنوعی معمولاً برای افرادی که به درستی در مجموعه داده‌ها نماینده نیستن، عملکرد خوبی ندارن. افراد متعلق به گروه‌های اقلیت، مخصوصاً ممکنه کمتر در داده‌ها دیده بشن و بنابراین، ممکنه آسیب بیشتری از جانبداری‌های هوش مصنوعی ببینن.

در این توصیه‌ها، راهنمایی‌هایی هم در مورد چگونگی شناسایی افرادی که ممکنه در هنگام استفاده از سیستم‌های هوش مصنوعی پزشکی آسیب ببینن، ارائه شده تا بشه این خطر رو کم کرد. پروژه STANDING Together تحت رهبری محققان بیمارستان‌های دانشگاهی بیرمنگام و دانشگاه بیرمنگام در انگلستان انجام می‌شه. این تحقیق با همکاری بیش از ۳۰ نهاد جهانی، شامل دانشگاه‌ها، سازمان‌های نظارتی (انگلستان، ایالات متحده، کانادا و استرالیا)، گروه‌های بیماران و سازمان‌های خیریه، و شرکت‌های بزرگ و کوچک فناوری سلامت انجام شده. این کار با حمایت بنیاد سلامت و آزمایشگاه هوش مصنوعی NHS تأمین مالی شده و توسط مؤسسه ملی تحقیقات سلامت و مراقبت (NIHR)، که شریک تحقیقاتی NHS، بهداشت عمومی و مراقبت اجتماعیه، پشتیبانی می‌شه.

نزدیک‌نگری از یک تحلیل‌گر داده‌های بهداشتی مشغول بررسی مجموعه داده‌ها و نمودارهای مرتبط با تنوع.
اهمیت بررسی دقیق داده‌های سلامت و شناسایی جانبداری‌های احتمالی.

علاوه بر خود توصیه‌ها، تفسیری که در مجله‌ی Nature Medicine منتشر شده و توسط نمایندگان بیماران STANDING Together نوشته شده، بر اهمیت مشارکت عمومی در شکل‌دهی به تحقیقات هوش مصنوعی پزشکی تأکید می‌کنه. سر جرمی فارار، دانشمند ارشد سازمان بهداشت جهانی گفت: “این که داده‌های متنوع، قابل دسترس و نماینده‌ای برای حمایت از توسعه و آزمایش مسئولانه‌ی هوش مصنوعی وجود داشته باشه، یه اولویت جهانی به حساب می‌آد. توصیه‌های STANDING Together، قدم بزرگی به جلو در تضمین برابری برای هوش مصنوعی در حوزه‌ی سلامت به شمار میاد.”

دامینیک کشنان، معاون مدیر هوش مصنوعی در NHS انگلستان گفت: “این خیلی خیلی خیلی مهمه که ما مجموعه‌های داده‌ی شفاف و نماینده‌ای داشته باشیم تا از توسعه و استفاده‌ی مسئولانه و عادلانه از هوش مصنوعی حمایت کنیم. توصیه‌های STANDING Together در یه زمانی خیلی مناسب ارائه شدن، چون ما داریم از پتانسیل هیجان‌انگیز ابزارهای هوش مصنوعی بهره می‌بریم و آزمایشگاه هوش مصنوعی NHS کاملاً از قبول و اجرای این شیوه‌ها برای کم کردن جانبداری‌های هوش مصنوعی حمایت می‌کنه.”

این توصیه‌ها امروز (۱۸ دسامبر ۲۰۲۴) منتشر شدن و به صورت دسترسی آزاد از طریق The Lancet Digital Health در دسترس هستن. این توصیه‌ها ممکنه مخصوصاً برای نهادهای نظارتی، سازمان‌های سیاست‌گذاری سلامت و مراقبت، نهادهای تأمین مالی، کمیته‌های بررسی اخلاقی، دانشگاه‌ها و وزارت‌خانه‌های دولتی مفید باشن.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *