هوش-مصنوعی-پزشکی

توصیه‌های جدید برای بهبود هوش مصنوعی پزشکی

بیماران می‌توانند از نوآوری‌های هوش مصنوعی (AI) پزشکی بهره‌مند شوند، اگر مجموعه‌ای جدید از توصیه‌های بین‌المللی را دنبال کنند. این مجموعه توصیه‌ها که در نشریات The Lancet Digital Health و NEJM AI منتشر شده‌اند، به هدف بهبود نحوه استفاده از داده‌ها برای توسعه فناوری‌های بهداشت هوش مصنوعی و کاهش خطر تعصب احتمالی طراحی شده‌اند.

فناوری‌های نوآورانه هوش مصنوعی پزشکی ممکن است تشخیص و درمان بیماران را بهبود بخشند. با این حال، برخی از مطالعات نشان داده‌اند که هوش مصنوعی پزشکی می‌تواند تعصب داشته باشد؛ به این معنا که برای برخی افراد عملکرد خوبی دارد و برای دیگران نه. این موضوع به این معناست که برخی افراد و جوامع ممکن است «از قافله عقب بمانند» یا حتی ممکن است در نتیجه استفاده از این فناوری‌ها آسیب ببینند.

ابتکار جهانی ‘STANDING Together’

یک ابتکار بین‌المللی به نام ‘STANDING Together’ (استانداردها برای تنوع داده‌ها، شمول و عمومی‌سازی) توصیه‌هایی را به عنوان بخشی از یک مطالعه تحقیقاتی که شامل بیش از ۳۵۰ کارشناس از ۵۸ کشور است، منتشر کرده است. این توصیه‌ها به منظور اطمینان از اینکه هوش مصنوعی پزشکی می‌تواند برای همه ایمن و مؤثر باشد، طراحی شده‌اند.

بیمارانی از گروه‌های مختلف در حال تعامل با متخصصان بهداشت و درمان در یک اتاق بیمارستانی مدرن هستند.
نقش هوش مصنوعی در بهبود خدمات بهداشتی برای همه بیماران.

این توصیه‌ها شامل عوامل متعددی هستند که می‌توانند به تعصب AI کمک کنند، از جمله:

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با اسکرول
  • تشویق به توسعه هوش مصنوعی پزشکی با استفاده از مجموعه‌های داده بهداشتی مناسب که به درستی نمایانگر همه افراد در جامعه، از جمله گروه‌های اقلیت و کم‌خدمت باشد؛
  • کمک به هر کسی که مجموعه‌های داده بهداشتی را منتشر می‌کند تا هرگونه تعصب یا محدودیت در داده‌ها را شناسایی کند؛
  • امکان‌سنجی برای توسعه‌دهندگان فناوری‌های هوش مصنوعی پزشکی تا ارزیابی کنند که آیا یک مجموعه داده برای اهداف آن‌ها مناسب است؛
  • تعریف نحوه آزمایش فناوری‌های AI برای شناسایی تعصب و اینکه آیا در برخی افراد به خوبی عمل نمی‌کنند.

دکتر Xiao Liu، استاد همکار هوش مصنوعی و فناوری‌های بهداشت دیجیتال در دانشگاه بیرمنگام و محقق اصلی این مطالعه، گفت: “داده‌ها مانند یک آینه هستند که واقعیت را منعکس می‌کنند. و زمانی که تحریف می‌شوند، داده‌ها می‌توانند تعصبات اجتماعی را بزرگ‌نمایی کنند. اما تلاش برای اصلاح داده‌ها به منظور حل این مشکل، شبیه به پاک کردن آینه برای از بین بردن لکه‌ای روی پیراهن شماست.”

او افزود: “برای ایجاد تغییرات پایدار در برابری سلامت، باید بر روی اصلاح منبع تمرکز کنیم، نه فقط بازتاب آن.”

جمعی از پژوهشگران از کشورهای مختلف در حال همکاری بر روی پروژه 'STANDING Together' برای تنوع داده‌ها در هوش مصنوعی پزشکی.
همکاری‌های جهانی برای اطمینان از تنوع داده‌ها در تحقیقات هوش مصنوعی پزشکی.

توصیه‌های STANDING Together برای تنوع در داده‌های پزشکی AI

توصیه‌های STANDING Together به منظور اطمینان از این که داده‌های مورد استفاده برای آموزش و آزمایش سیستم‌های هوش مصنوعی پزشکی، نمایندگی کاملی از تنوع افرادی که این فناوری برای آن‌ها به کار می‌رود، داشته باشد، طراحی شده است. این موضوع به دلیل اهمیت دارد که سیستم‌های هوش مصنوعی معمولاً برای افرادی که به درستی در داده‌ها نمایندگی نشده‌اند، عملکرد کمتری دارند. افرادی که در گروه‌های اقلیت قرار دارند به ویژه احتمال دارد که در داده‌ها به طور نامناسب نمایندگی شوند و بنابراین ممکن است به طور نامتناسبی تحت تأثیر تعصب‌های هوش مصنوعی قرار گیرند.

همچنین راهنمایی‌هایی در مورد چگونگی شناسایی افرادی که ممکن است در اثر استفاده از سیستم‌های هوش مصنوعی پزشکی آسیب ببینند، ارائه شده است که به کاهش این ریسک کمک می‌کند. پروژه STANDING Together تحت رهبری پژوهشگران بیمارستان‌های دانشگاهی بیرمنگام و دانشگاه بیرمنگام در بریتانیا انجام می‌شود. این تحقیق با همکاری بیش از 30 موسسه در سطح جهانی، از جمله دانشگاه‌ها، نهادهای نظارتی (بریتانیا، ایالات متحده، کانادا و استرالیا)، گروه‌های بیمار و خیریه‌ها، و شرکت‌های بزرگ و کوچک در زمینه فناوری سلامت انجام شده است. این فعالیت با حمایت بنیاد سلامت و آزمایشگاه هوش مصنوعی NHS تأمین مالی شده و توسط موسسه ملی تحقیق در زمینه سلامت و مراقبت (NIHR) که شریک تحقیقاتی NHS و حوزه سلامت عمومی و مراقبت اجتماعی است، پشتیبانی می‌شود.

سخنرانی کلیدی در یک کنفرانس درباره اهمیت داده‌های متنوع در هوش مصنوعی پزشکی با حضور نمایندگان مختلف.
اهمیت داده‌های متنوع در توسعه فناوری‌های هوش مصنوعی مورد بحث قرار می‌گیرد.

علاوه بر خود توصیه‌ها، یک تفسیر منتشر شده در Nature Medicine که توسط نمایندگان بیماران STANDING Together نوشته شده، اهمیت مشارکت عمومی در شکل‌دهی به تحقیقات هوش مصنوعی پزشکی را مورد تأکید قرار می‌دهد. سر جرمی فارار، دانشمند ارشد سازمان بهداشت جهانی گفت: “اطمینان از این که داده‌های متنوع، قابل دسترسی و نماینده‌ای برای حمایت از توسعه و آزمایش مسئولانه هوش مصنوعی وجود داشته باشد، یک اولویت جهانی است. توصیه‌های STANDING Together گام مهمی به جلو در اطمینان از برابری در هوش مصنوعی در حوزه سلامت است.”

دامینیک کشنان، معاون مدیر هوش مصنوعی در NHS انگلستان گفت: “مهم است که داده‌های شفاف و نماینده‌ای برای حمایت از توسعه و استفاده مسئولانه و عادلانه هوش مصنوعی داشته باشیم. توصیه‌های STANDING Together در زمانی بسیار مناسب ارائه شده‌اند زیرا ما از پتانسیل هیجان‌انگیز ابزارهای هوش مصنوعی بهره‌برداری می‌کنیم و آزمایشگاه هوش مصنوعی NHS به طور کامل از پذیرش این شیوه‌ها برای کاهش تعصب‌های هوش مصنوعی حمایت می‌کند.”

توصیه‌ها امروز (18 دسامبر 2024) منتشر شده و به صورت دسترسی آزاد از طریق The Lancet Digital Health در دسترس هستند. این توصیه‌ها ممکن است به ویژه برای نهادهای نظارتی، سازمان‌های سیاست‌گذاری سلامت و مراقبت، نهادهای تأمین مالی، کمیته‌های بررسی اخلاقی، دانشگاه‌ها و وزارتخانه‌های دولتی مفید باشند.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *