افزایش اعتماد به مدل‌های هوش مصنوعی در موقعیت‌های حساس

تصاویر پزشکی اغلب حاوی اطلاعات مبهم هستند، که همین موضوع می‌تواند کار تشخیص بیماری را برای پزشکان دشوار کند. به عنوان مثال، در عکس‌برداری از قفسه سینه، «افیوژن پلورال» (تجمع غیرعادی مایع در ریه‌ها) ممکن است شباهت زیادی به «نفوذهای ریوی» (تجمع چرک یا خون) داشته باشد.

در چنین مواردی، مدل‌های هوش مصنوعی می‌توانند با تجزیه و تحلیل دقیق‌تر تصاویر اشعه ایکس، به پزشکان کمک کنند تا سریع‌تر و دقیق‌تر به تشخیص برسند. اما چون احتمال دارد چندین بیماری در یک تصویر دیده شود، انتظار نمی‌رود که مدل صرفاً یک پاسخ ارائه دهد. در عوض، بهتر است مجموعه‌ای از گزینه‌های محتمل به پزشک ارائه شود.

یکی از روش‌های امیدوارکننده برای ایجاد چنین مجموعه‌ای از پیش‌بینی‌ها، «طبقه‌بندی هم‌نوا (Conformal Classification)» است. این روش می‌تواند روی مدل‌های فعلی یادگیری ماشین اجرا شود. اما یک ایراد بزرگ دارد: مجموعه پاسخ‌هایی که تولید می‌کند معمولاً بسیار بزرگ و غیرعملی هستند.

اکنون پژوهشگران MIT راهکاری ساده و مؤثر را توسعه داده‌اند که با استفاده از آن می‌توان اندازه مجموعه پیش‌بینی‌ها را تا 30 درصد کاهش داد، بدون آنکه از دقت مدل کاسته شود. این روش نه تنها باعث می‌شود پزشک سریع‌تر به تشخیص درست برسد، بلکه می‌تواند برای سایر کاربردهای طبقه‌بندی مانند شناسایی گونه‌های جانوری نیز مفید باشد.

به گفته «دیویا شانموگام»، پژوهشگر پسا‌دکتری در Cornell Tech، «وقتی با گزینه‌های کمتر مواجه باشید، تصمیم‌گیری آسان‌تر می‌شود و اطلاعات دقیق‌تری دریافت می‌کنید، در حالی‌ که هنوز دقت مدل حفظ شده است.»

تضمین برای پیش‌بینی‌ها

مدل‌های هوش مصنوعی که در فعالیت‌های پرریسک مانند تشخیص بیماری‌ها استفاده می‌شوند، معمولاً همراه با هر پیش‌بینی، یک نمره احتمال نیز ارائه می‌دهند. مثلاً ممکن است مدل بگوید که با احتمال ۲۰ درصد، تصویر مربوط به بیماری خاصی مانند پلورزی است. اما تحقیقات مختلف نشان داده‌اند که این نمرات اغلب غیرقابل اعتماد هستند.

روش «طبقه‌بندی هم‌نوا» این مشکل را برطرف می‌کند؛ به این صورت که به جای یک پیش‌بینی واحد، مجموعه‌ای از پیش‌بینی‌های محتمل را همراه با یک ضمانت ارائه می‌دهد که پاسخ صحیح درون آن مجموعه وجود دارد. ولی این رویکرد اغلب منجر به تولید مجموعه‌های بسیار بزرگ می‌شود که استفاده از آن‌ها دشوار است.

برای مثال، اگر مدل قرار باشد جانوری را در بین ۱۰ هزار گونه شناسایی کند، ممکن است مجموعه‌ای ۲۰۰ تایی ارائه دهد تا اطمینان لازم را فراهم کند. بدیهی است بررسی این تعداد گزینه برای کاربر ساده نیست.

افزایش دقت با «تقویت آزمون در زمان اجرا»

پژوهشگران MIT برای رفع این مشکل، از تکنیکی به نام «تقویت آزمون در زمان اجرا» (Test-Time Augmentation یا TTA) استفاده کرده‌اند که قبلاً برای بهبود دقت در مدل‌های بینایی کامپیوتری کاربرد داشته است. در این روش، از یک تصویر چندین نسخه با تغییرات جزئی مثل برش، چرخش یا بزرگ‌نمایی تهیه می‌شود. سپس مدل پیش‌بینی‌های حاصل از همه این نسخه‌ها را با هم ترکیب می‌کند.

به گفته شانموگام، «با این روش می‌توان از یک تصویر، چندین پیش‌بینی به دست آورد. تجمیع این پیش‌بینی‌ها باعث افزایش دقت و پایداری مدل می‌شود.»

در این پروژه، پژوهشگران بخشی از داده‌های برچسب‌خورده را برای آموزش نحوه تجمیع تصاویر تقویت‌شده کنار گذاشتند. سپس «طبقه‌بندی هم‌نوا» روی پیش‌بینی‌های جدید و تقویت‌شده اجرا شد. نتیجه: مجموعه‌ای کوچک‌تر اما دقیق‌تر از پیش‌بینی‌ها، بدون نیاز به آموزش مجدد مدل.

نتایج و آینده پژوهش

در مقایسه با روش‌های قدیمی هم‌نوا، این رویکرد جدید توانسته است اندازه خروجی‌های پیش‌بینی را بین ۱۰ تا ۳۰ درصد کاهش دهد و همچنان همان ضمانت اطمینان را حفظ کند. جالب اینکه با وجود استفاده کمتر از داده‌های برچسب‌خورده، دقت مدل به دلیل TTA حتی افزایش هم داشته است.

شانموگام معتقد است این نتایج پرسش‌هایی را درباره نحوه استفاده از داده‌های برچسب‌خورده پس از آموزش مدل ایجاد می‌کند. به گفته او، «نحوه تخصیص این داده‌ها در مراحل بعدی، مسیر مهمی برای پژوهش‌های آینده است.»

پژوهشگران MIT در ادامه قصد دارند تکنیک ترکیب TTA و مدل‌های هم‌نوا را در مدل‌هایی که روی متن کار می‌کنند نیز به کار گیرند. آن‌ها همچنین در حال بررسی روش‌هایی برای کاهش نیاز به محاسبات سنگین در این فرآیند هستند.

این پژوهش توسط شرکت Wistrom Corporation تأمین مالی شده است.

منبع خبر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *