برای داشتن شنوایی سالم، زمان‌بندی اهمیت دارد

وقتی امواج صوتی به گوش داخلی می‌رسند، نورون‌ها این ارتعاشات را دریافت کرده و آنها را به مغز اطلاع می‌دهند. سیگنال‌های ارسال‌شده حاوی اطلاعات فراوانی هستند که به ما کمک می‌کنند مکالمات را دنبال کنیم، صداهای آشنا را بشناسیم، از موسیقی لذت ببریم و به سرعت صدای زنگ تلفن یا گریه نوزاد را پیدا کنیم.

نورون‌ها سیگنال‌ها را از طریق ایجاد جهش‌های الکتریکی (افزایش سریع ولتاژ) ارسال می‌کنند که از طریق رشته‌های عصبی منتقل می‌شود. جالب اینجاست که نورون‌های شنوایی می‌توانند صدها جهش در هر ثانیه ایجاد کنند و با دقت بالا این جهش‌ها را با نوسانات امواج صوتی ورودی هماهنگ کنند.

بر اساس مدل‌های قدرتمند جدید شنیدن، گروهی از دانشمندان در مؤسسه مک‌گاورن MIT نشان داده‌اند که این زمان‌بندی دقیق برای درک اطلاعات شنیداری از جمله شناسایی صداها و محلی‌سازی منابع صوتی اهمیت بسیاری دارد.

یافته‌های دسترس‌پذیر این تحقیق که در تاریخ ۴ دسامبر در مجله Nature Communications منتشر شده است، بیانگر این هستند که چگونه یادگیری ماشینی می‌تواند به دانشمندان علوم اعصاب کمک کند تا بفهمند مغز چگونه اطلاعات شنیداری را در دنیای واقعی پردازش می‌کند. پروفسور «جاش مک‌درموت» از MIT، که تحقیق را رهبری کرده است، می‌گوید: مدل‌های تیم ما ابزار مفیدی برای بررسی اثرات انواع مختلف اختلالات شنوایی و طراحی درمان‌های مؤثرتر فراهم می‌کنند.

علم صدا

سیگنال‌های عصبی سیستم شنوایی به قدری دقیق زمان‌بندی شده‌اند که مدت‌ها تصور می‌شد زمان‌بندی برای درک صدا اهمیت دارد. امواج صوتی در فرکانس‌هایی نوسان می‌کنند که زیر و بمی آنها را تعیین می‌کند: صداهای کلفت در امواج کند و صداهای زیر در امواج سریع‌تر منتقل می‌شوند. رشته‌های عصبی‌ای که اطلاعات شنوایی را از سلول‌های دارای گیرنده صدا به مغز ارسال می‌کنند، جهش‌های الکتریکی ایجاد می‌کنند که با فرکانس این نوسانات هماهنگ هستند. «جهش‌های عصبی در زمان مشخصی نسبت به قله‌های موج صدا رخ می‌دهند»، مک‌درموت توضیح می‌دهد.

این پدیده که «قفل‌شدگی فاز» نامیده می‌شود، مستلزم آن است که نورون‌ها با دقتی در حد میلی‌ثانیه جهش‌هایشان را زمان‌بندی کنند. اما دانشمندان تاکنون نمی‌دانستند این الگوهای زمانی تا چه حد برای مغز قابل استفاده هستند. علاوه بر جذابیت علمی این موضوع، مک‌درموت می‌گوید این پرسش کاربرد بالینی مهمی دارد: «اگر شما قصد دارید یک پروتز شنوایی طراحی کنید که سیگنال‌های الکتریکی را به مغز ارسال کند تا عملکرد گوش را بازتولید کند، باید بدانید کدام اطلاعات از عملکرد گوش طبیعی واقعاً اهمیت دارند.»

مطالعه این موضوع به صورت تجربی مشکل است، چرا که مدل‌های حیوانی اطلاعات زیادی درباره عملکرد مغز انسان در پردازش زبان یا موسیقی ارائه نمی‌دهند و رشته‌های عصبی شنوایی برای مطالعه در انسان‌ها دسترس‌پذیر نیستند. به همین دلیل مک‌درموت و دانشجویش «مارک سدلر» به سراغ شبکه‌های عصبی مصنوعی رفتند.

شنوایی مصنوعی

دانشمندان علوم اعصاب سال‌هاست از مدل‌های محاسباتی برای بررسی چگونگی رمزگشایی اطلاعات حسی توسط مغز استفاده می‌کنند. اما محدودیت‌های قدرت پردازشی کامپیوترها و روش‌های یادگیری ماشینی در گذشته مانع از مدل‌سازی وظایف پیچیده می‌شد. سدلر توضیح می‌دهد: «یکی از مشکلات مدل‌های قبلی این است که اغلب عملکردشان بیش از حد خوب است. برای مثال، یک مدل محاسباتی که برای تشخیص زیرتر بودن یکی از دو تن ساده طراحی شده، احتمالاً بهتر از انسان‌ها عمل می‌کند. ولی این وظیفه‌ای نیست که هر روز با آن مواجه می‌شویم، بنابراین نمی‌توان کاملاً مطمئن بود که عملکرد آن‌ها نشان‌دهنده سیستم شنوایی واقعی انسان است.»

برای درک بهتر مغز، سدلر و مک‌درموت تصمیم گرفتند مدل شنوایی را با چالش‌های واقعی‌تری مواجه کنند: مانند شناسایی کلمات و صداها. آنها یک شبکه عصبی مصنوعی طراحی کردند که بخش‌هایی از مغز را که از گوش ورودی دریافت می‌کنند، شبیه‌سازی می‌کند. این شبکه ورودی‌ای شامل اطلاعات از ۳۲۰۰۰ رشته عصبی شبیه‌سازی‌شده دریافت کرد و سپس برای انجام وظایف واقعی بهینه‌سازی شد.

این مدل نه تنها عملکرد شنوایی انسان را به خوبی شبیه‌سازی کرد، بلکه توانست بهتر از مدل‌های قبلی رفتار شنوایی انسان را پیش‌بینی کند. در یک آزمون، این مدل موظف شد کلمات و صداها را در میان ده‌ها نوع نویز پس‌زمینه (مانند صدای هواپیما یا تشویق جمعیت) شناسایی کند. در تمامی شرایط، عملکرد مدل بسیار شبیه انسان‌ها بود.

اما زمانی که محققان زمان‌بندی جهش‌ها را در مدل شبیه‌سازی‌شده مختل کردند، مدل دیگر قادر به رقابت با توانایی انسان در شناسایی صداها یا یافتن موقعیت منابع صوتی نبود. این یافته نشان داد که دقت بالای زمان‌بندی جهش‌ها برای توانایی مغز در پردازش اطلاعات شنوایی اهمیت زیادی دارد.

این نتایج نشان می‌دهد که چگونه شبکه‌های عصبی مصنوعی می‌توانند دیدگاه‌های جدیدی درباره نحوه پردازش مغز از اطلاعات شنیداری در شرایط عادی و شرایط اختلال شنوایی ارائه دهند. مک‌درموت می‌گوید: «وجود این مدل‌ها که پاسخ‌های عصبی را به رفتار شنوایی پیوند می‌دهند، درهای بسیاری را باز می‌کند.»

وی ادامه می‌دهد: «ما حالا می‌توانیم شبیه‌سازی کنیم که انواع مختلف کاهش شنوایی چه تأثیری بر قابلیت‌های شنوایی ما دارند. این کار هم به تشخیص بهتر کاهش شنوایی کمک می‌کند و هم ممکن است به ما در طراحی پروتزهای شنوایی بهتر مانند سمعک یا کاشت حلزون یاری کند.» مک‌درموت نتیجه‌گیری می‌کند: «برای مثال، اگر بدانیم مدل‌ها چگونه می‌توانند رابط پروتزهای شنوایی را بهینه کنند، می‌توانیم کیفیت زندگی را برای افرادی با مشکلات شنوایی به طرز چشمگیر بهبود دهیم.»

لینک منبع: مطالعه کامل در Nature Communications

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *