تصاویر پزشکی اغلب حاوی اطلاعات مبهم هستند، که همین موضوع میتواند کار تشخیص بیماری را برای پزشکان دشوار کند. به عنوان مثال، در عکسبرداری از قفسه سینه، «افیوژن پلورال» (تجمع غیرعادی مایع در ریهها) ممکن است شباهت زیادی به «نفوذهای ریوی» (تجمع چرک یا خون) داشته باشد.
در چنین مواردی، مدلهای هوش مصنوعی میتوانند با تجزیه و تحلیل دقیقتر تصاویر اشعه ایکس، به پزشکان کمک کنند تا سریعتر و دقیقتر به تشخیص برسند. اما چون احتمال دارد چندین بیماری در یک تصویر دیده شود، انتظار نمیرود که مدل صرفاً یک پاسخ ارائه دهد. در عوض، بهتر است مجموعهای از گزینههای محتمل به پزشک ارائه شود.
یکی از روشهای امیدوارکننده برای ایجاد چنین مجموعهای از پیشبینیها، «طبقهبندی همنوا (Conformal Classification)» است. این روش میتواند روی مدلهای فعلی یادگیری ماشین اجرا شود. اما یک ایراد بزرگ دارد: مجموعه پاسخهایی که تولید میکند معمولاً بسیار بزرگ و غیرعملی هستند.
اکنون پژوهشگران MIT راهکاری ساده و مؤثر را توسعه دادهاند که با استفاده از آن میتوان اندازه مجموعه پیشبینیها را تا 30 درصد کاهش داد، بدون آنکه از دقت مدل کاسته شود. این روش نه تنها باعث میشود پزشک سریعتر به تشخیص درست برسد، بلکه میتواند برای سایر کاربردهای طبقهبندی مانند شناسایی گونههای جانوری نیز مفید باشد.
به گفته «دیویا شانموگام»، پژوهشگر پسادکتری در Cornell Tech، «وقتی با گزینههای کمتر مواجه باشید، تصمیمگیری آسانتر میشود و اطلاعات دقیقتری دریافت میکنید، در حالی که هنوز دقت مدل حفظ شده است.»
تضمین برای پیشبینیها
مدلهای هوش مصنوعی که در فعالیتهای پرریسک مانند تشخیص بیماریها استفاده میشوند، معمولاً همراه با هر پیشبینی، یک نمره احتمال نیز ارائه میدهند. مثلاً ممکن است مدل بگوید که با احتمال ۲۰ درصد، تصویر مربوط به بیماری خاصی مانند پلورزی است. اما تحقیقات مختلف نشان دادهاند که این نمرات اغلب غیرقابل اعتماد هستند.
روش «طبقهبندی همنوا» این مشکل را برطرف میکند؛ به این صورت که به جای یک پیشبینی واحد، مجموعهای از پیشبینیهای محتمل را همراه با یک ضمانت ارائه میدهد که پاسخ صحیح درون آن مجموعه وجود دارد. ولی این رویکرد اغلب منجر به تولید مجموعههای بسیار بزرگ میشود که استفاده از آنها دشوار است.
برای مثال، اگر مدل قرار باشد جانوری را در بین ۱۰ هزار گونه شناسایی کند، ممکن است مجموعهای ۲۰۰ تایی ارائه دهد تا اطمینان لازم را فراهم کند. بدیهی است بررسی این تعداد گزینه برای کاربر ساده نیست.
افزایش دقت با «تقویت آزمون در زمان اجرا»
پژوهشگران MIT برای رفع این مشکل، از تکنیکی به نام «تقویت آزمون در زمان اجرا» (Test-Time Augmentation یا TTA) استفاده کردهاند که قبلاً برای بهبود دقت در مدلهای بینایی کامپیوتری کاربرد داشته است. در این روش، از یک تصویر چندین نسخه با تغییرات جزئی مثل برش، چرخش یا بزرگنمایی تهیه میشود. سپس مدل پیشبینیهای حاصل از همه این نسخهها را با هم ترکیب میکند.
به گفته شانموگام، «با این روش میتوان از یک تصویر، چندین پیشبینی به دست آورد. تجمیع این پیشبینیها باعث افزایش دقت و پایداری مدل میشود.»
در این پروژه، پژوهشگران بخشی از دادههای برچسبخورده را برای آموزش نحوه تجمیع تصاویر تقویتشده کنار گذاشتند. سپس «طبقهبندی همنوا» روی پیشبینیهای جدید و تقویتشده اجرا شد. نتیجه: مجموعهای کوچکتر اما دقیقتر از پیشبینیها، بدون نیاز به آموزش مجدد مدل.
نتایج و آینده پژوهش
در مقایسه با روشهای قدیمی همنوا، این رویکرد جدید توانسته است اندازه خروجیهای پیشبینی را بین ۱۰ تا ۳۰ درصد کاهش دهد و همچنان همان ضمانت اطمینان را حفظ کند. جالب اینکه با وجود استفاده کمتر از دادههای برچسبخورده، دقت مدل به دلیل TTA حتی افزایش هم داشته است.
شانموگام معتقد است این نتایج پرسشهایی را درباره نحوه استفاده از دادههای برچسبخورده پس از آموزش مدل ایجاد میکند. به گفته او، «نحوه تخصیص این دادهها در مراحل بعدی، مسیر مهمی برای پژوهشهای آینده است.»
پژوهشگران MIT در ادامه قصد دارند تکنیک ترکیب TTA و مدلهای همنوا را در مدلهایی که روی متن کار میکنند نیز به کار گیرند. آنها همچنین در حال بررسی روشهایی برای کاهش نیاز به محاسبات سنگین در این فرآیند هستند.
این پژوهش توسط شرکت Wistrom Corporation تأمین مالی شده است.