هوش-مصنوعی-پزشکی

توصیه‌های جدید برای بهبود هوش مصنوعی پزشکی

بیماران می‌توانند از نوآوری‌های هوش مصنوعی (AI) پزشکی بهره‌مند شوند، اگر مجموعه‌ای جدید از توصیه‌های بین‌المللی رعایت شود. این مجموعه، که در مجلات The Lancet Digital Health و NEJM AI منتشر شده، به منظور بهبود نحوه استفاده از داده‌ها برای ساخت فناوری‌های بهداشتی مبتنی بر هوش مصنوعی و کاهش خطر تعصبات احتمالی AI طراحی شده است.

فناوری‌های نوآورانه هوش مصنوعی پزشکی می‌توانند تشخیص و درمان بیماران را بهبود بخشند. با این حال، برخی مطالعات نشان داده‌اند که هوش مصنوعی پزشکی ممکن است تعصب داشته باشد، به این معنی که برای برخی افراد به خوبی عمل می‌کند و برای دیگران نه. این بدان معناست که برخی افراد و جوامع ممکن است “از قافله عقب بمانند” یا حتی ممکن است در نتیجه استفاده از این فناوری‌ها آسیب ببینند.

ابتکار بین‌المللی ‘STANDING Together’

یک ابتکار بین‌المللی به نام ‘STANDING Together’ (استانداردهای تنوع داده‌ها، شمول و عمومی‌سازی) توصیه‌هایی را به عنوان بخشی از یک مطالعه تحقیقاتی که شامل بیش از ۳۵۰ کارشناس از ۵۸ کشور است، منتشر کرده است. این توصیه‌ها برای اطمینان از اینکه هوش مصنوعی پزشکی می‌تواند برای همه ایمن و مؤثر باشد، طراحی شده‌اند. آن‌ها به عوامل متعددی که می‌توانند به تعصب AI کمک کنند، می‌پردازند، از جمله:

تصویری از تعامل بیماران متنوع با فناوری‌های پزشکی پیشرفته و خوشبینانه درباره هوش مصنوعی.
پتانسیل هوش مصنوعی در بهبود خدمات پزشکی برای همه بیماران.
  • تشویق به توسعه هوش مصنوعی پزشکی با استفاده از مجموعه داده‌های بهداشتی مناسب که به درستی نمایانگر همه افراد در جامعه، از جمله گروه‌های اقلیت و کم‌خدمات‌رسانی شده باشد؛
  • کمک به هر کسی که مجموعه داده‌های بهداشتی را منتشر می‌کند تا تعصبات یا محدودیت‌های موجود در داده‌ها را شناسایی کند؛
  • امکان ارزیابی مناسب بودن یک مجموعه داده برای اهداف توسعه‌دهندگان فناوری‌های هوش مصنوعی پزشکی؛
  • تعریف چگونگی آزمایش فناوری‌های هوش مصنوعی برای شناسایی تعصبات و بررسی اینکه آیا در برخی افراد کمتر مؤثر هستند.

دکتر Xiao Liu، استاد مشارک هوش مصنوعی و فناوری‌های بهداشت دیجیتال در دانشگاه بیرمنگام و محقق اصلی این مطالعه، گفت: “داده‌ها مانند یک آینه هستند که واقعیت را منعکس می‌کنند. و وقتی که تحریف می‌شوند، می‌توانند تعصبات اجتماعی را بزرگ‌تر کنند. اما تلاش برای اصلاح داده‌ها به منظور حل مشکل، مانند پاک کردن آینه برای از بین بردن لکه‌ای بر روی پیراهن شماست.”

📢 اگر عاشق علم هستید و نمی‌خواهید هیچ مقاله‌ای را از دست بدهید…

به کانال تلگرام ما بپیوندید! تمامی مقالات جدید روزانه در آنجا منتشر می‌شوند.

📲 عضویت در کانال تلگرام
پاپ‌آپ اطلاعیه با انیمیشن

او افزود: “برای ایجاد تغییرات پایدار در برابری سلامت، باید بر روی اصلاح منبع تمرکز کنیم، نه فقط بازتاب آن.”

تصویری از همکاری جهانی کارشناسان در مورد ابتکار 'STANDING Together' و تأکید بر تنوع داده‌ها.
همکاری بین‌المللی برای تضمین تنوع و شمول در داده‌های بهداشتی به منظور استفاده از هوش مصنوعی.

توصیه‌های STANDING Together برای تنوع در داده‌های پزشکی AI

توصیه‌های STANDING Together به منظور اطمینان از **اینکه** مجموعه داده‌های مورد استفاده برای آموزش و آزمایش سیستم‌های هوش مصنوعی پزشکی، تنوع کامل افرادی که این فناوری برای آن‌ها به کار می‌رود را نمایندگی کند، طراحی شده است. این موضوع اهمیت زیادی دارد زیرا سیستم‌های هوش مصنوعی معمولاً برای افرادی که به درستی در مجموعه داده‌ها نمایندگی نشده‌اند، عملکرد کمتری دارند. افرادی که در گروه‌های اقلیت قرار دارند، به ویژه ممکن است در مجموعه داده‌ها کمتر نمایندگی شوند و بنابراین ممکن است به طور نامتناسبی تحت تأثیر تعصب‌های هوش مصنوعی قرار گیرند.

راهنمایی‌هایی نیز در مورد چگونگی شناسایی افرادی که ممکن است در هنگام استفاده از سیستم‌های هوش مصنوعی پزشکی آسیب ببینند، ارائه شده است تا این خطر را کاهش دهد. پروژه STANDING Together تحت رهبری محققان بیمارستان‌های دانشگاهی برمینگهام و دانشگاه برمینگهام در انگلستان انجام می‌شود. این تحقیق با همکاری بیش از ۳۰ نهاد جهانی، از جمله دانشگاه‌ها، نهادهای نظارتی (انگلستان، ایالات متحده، کانادا و استرالیا)، گروه‌های بیمار و سازمان‌های خیریه، و شرکت‌های بزرگ و کوچک فناوری سلامت انجام شده است. این کار با حمایت بنیاد سلامت و آزمایشگاه هوش مصنوعی NHS تأمین مالی شده و توسط موسسه ملی تحقیقات سلامت و مراقبت (NIHR)، که شریک تحقیقاتی NHS، بهداشت عمومی و مراقبت اجتماعی است، پشتیبانی می‌شود.

نزدیک‌نگری از یک تحلیل‌گر داده‌های بهداشتی مشغول بررسی مجموعه داده‌ها و نمودارهای مرتبط با تنوع.
اهمیت تجزیه و تحلیل دقیق داده‌های بهداشتی و شناسایی تعصبات احتمالی.

علاوه بر خود توصیه‌ها، یک تفسیر که در Nature Medicine منتشر شده و توسط نمایندگان بیماران STANDING Together نوشته شده است، اهمیت مشارکت عمومی در شکل‌دهی به تحقیقات هوش مصنوعی پزشکی را برجسته می‌کند. سر جرمی فارار، دانشمند ارشد سازمان بهداشت جهانی گفت: “اطمینان از این که داده‌های متنوع، قابل دسترسی و نماینده‌ای برای حمایت از توسعه و آزمایش مسئولانه هوش مصنوعی وجود داشته باشد، یک اولویت جهانی است. توصیه‌های STANDING Together گام بزرگی به جلو در تضمین برابری برای هوش مصنوعی در حوزه سلامت است.”

دامینیک کشنان، معاون مدیر هوش مصنوعی در NHS انگلستان گفت: “این非常 حیاتی است که ما مجموعه داده‌های شفاف و نماینده‌ای داشته باشیم تا از توسعه و استفاده مسئولانه و عادلانه هوش مصنوعی حمایت کنیم. توصیه‌های STANDING Together در زمانی بسیار مناسب ارائه شده است، زیرا ما از پتانسیل هیجان‌انگیز ابزارهای هوش مصنوعی بهره‌برداری می‌کنیم و آزمایشگاه هوش مصنوعی NHS به طور کامل از پذیرش این شیوه‌ها برای کاهش تعصب‌های هوش مصنوعی حمایت می‌کند.”

توصیه‌ها امروز (۱۸ دسامبر ۲۰۲۴) منتشر شده و به صورت دسترسی آزاد از طریق The Lancet Digital Health در دسترس هستند. این توصیه‌ها ممکن است به ویژه برای نهادهای نظارتی، سازمان‌های سیاست‌گذاری سلامت و مراقبت، نهادهای تأمین مالی، کمیته‌های بررسی اخلاقی، دانشگاه‌ها و وزارت‌خانه‌های دولتی مفید باشند.

مقاله های شبیه به این مقاله

بیشتر بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *