شرکت علی‌بابا به‌تازگی مدل متن‌باز جدیدی به نام QwQ-32B معرفی کرده که عملکردی مشابه مدل قدرتمند DeepSeek-R1 دارد، اما با نیاز محاسباتی بسیار کمتر.

درحالی‌که مدل DeepSeek-R1 با 671 میلیارد پارامتر اجرا می‌شود، مدل جدید علی‌بابا موفق شده با تعداد پارامترهای بسیار کمتر، عملکردی هم‌سطح ارائه دهد. این پیشرفت می‌تواند به‌طور قابل‌توجهی هزینه‌های محاسباتی و انرژی موردنیاز برای اجرای مدل‌های هوش مصنوعی را کاهش دهد.

موضوع کاهش نیازمندی‌های محاسباتی در هوش مصنوعی اهمیت زیادی دارد، چرا که مدل‌های پیشرفته اغلب به سخت‌افزار قوی و زیرساخت‌های سنگین نیاز دارند. مدل QwQ-32B می‌تواند تحول مهمی در حوزه یادگیری ماشین و هوش مصنوعی به وجود آورد، مخصوصاً برای شرکت‌هایی که به دنبال استفاده از مدل‌های زبانی قدرتمند با هزینه کمتر هستند.

به نظر می‌رسد که علی‌بابا با این مدل جدید قصد دارد رقابت را در دنیای هوش مصنوعی متن‌باز جدی‌تر کند و همزمان دسترسی گسترده‌تری به ابزارهای هوش مصنوعی فراهم آورد.

برای اطلاعات بیشتر، می‌توانید به منبع اصلی این خبر مراجعه کنید:
منبع خبر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *