تحقیقات جدیدی که توسط شرکت Meta انجام شده، نشان میدهد مدلهای هوش مصنوعی زمانی که از زنجیرههای استدلال کوتاهتر استفاده میکنند، تا ۳۴.۵٪ دقت بالاتری دارند. این یافته جالب، دیدگاه سنتی در حوزه هوش مصنوعی را به چالش میکشد؛ دیدگاهی که قبلاً معتقد بود استدلالهای طولانیتر و پیچیدهتر باعث بهبود عملکرد مدلها میشود.
هوش مصنوعی و استدلال کوتاهتر:
در سالهای اخیر، یکی از روشهای محبوب در آموزش مدلهای زبانی بزرگ مانند ChatGPT استفاده از روشی به نام «زنجیره استدلال» یا (Chain-of-Thought) بوده است. در این روش، مدل به جای پاسخ دادن سریع، گامبهگام فکر میکند و روند استدلال خود را به صورت متنی ارائه میدهد. تا پیش از این تصور میشد که این شیوه به دقت بیشتر در پاسخگویی منجر میشود.
اما مطالعه جدید محققان Meta با بررسی عملکرد مدلهای مختلف روی بیش از ۱۰۰ پرسش پیچیده، نشان داد که در واقع استفاده از زنجیرههای استدلال سادهتر و کوتاهتر باعث کاهش نرخ خطا و افزایش دقت میشود. در این آزمایش که روی طیف وسیعی از مدلهای متنی انجام شد، کاهش در مرحلههای استدلالی نه تنها منجر به بهبود عملکرد شد، بلکه سرعت پاسخگویی را نیز بیشتر کرد.
صرفهجویی در منابع رایانشی:
یکی دیگر از نتایج کلیدی این تحقیق آن است که کاهش طول زنجیرههای فکری میتواند تا ۴۰٪ در مصرف منابع پردازشی صرفهجویی ایجاد کند. این موضوع برای شرکتهایی که از زیرساختهای ابری و پردازش گسترده استفاده میکنند، میتواند هزینهها را به شکل چشمگیری کاهش دهد.
پیامدها برای توسعه مدلهای زبانی:
در حالی که مدلهای زبانی جدید و قدرتمندی مانند GPT-4 یا LLaMA 3 در حال رشد هستند، نکته مهمی که از این تحقیق برداشت میشود این است که پیچیدگی لزوماً به معنی بهبود نیست. توسعهدهندگان باید به جای افزودن پیچیدگیهای غیرضروری، به دنبال یافتن راههایی برای بهینهسازی استدلال و ساخت خروجی ساده و دقیق باشند.
جمعبندی:
نتایج جدید متا نشان میدهد که «کمتر، بیشتر است» میتواند رویکردی کاربردی در طراحی سیستمهای هوش مصنوعی باشد. زنجیرههای استدلال کوتاهتر نهتنها عملکرد مدلها را بهبود میدهند، بلکه هزینهی پردازش را نیز کاهش میدهند. این یافتهها ممکن است جهتگیری آیندهی توسعه مدلهای هوشمند را تغییر دهند.
منبع: VentureBeat