شرکت علیبابا بهتازگی مدل متنباز جدیدی به نام QwQ-32B معرفی کرده که عملکردی مشابه مدل قدرتمند DeepSeek-R1 دارد، اما با نیاز محاسباتی بسیار کمتر.
درحالیکه مدل DeepSeek-R1 با 671 میلیارد پارامتر اجرا میشود، مدل جدید علیبابا موفق شده با تعداد پارامترهای بسیار کمتر، عملکردی همسطح ارائه دهد. این پیشرفت میتواند بهطور قابلتوجهی هزینههای محاسباتی و انرژی موردنیاز برای اجرای مدلهای هوش مصنوعی را کاهش دهد.
موضوع کاهش نیازمندیهای محاسباتی در هوش مصنوعی اهمیت زیادی دارد، چرا که مدلهای پیشرفته اغلب به سختافزار قوی و زیرساختهای سنگین نیاز دارند. مدل QwQ-32B میتواند تحول مهمی در حوزه یادگیری ماشین و هوش مصنوعی به وجود آورد، مخصوصاً برای شرکتهایی که به دنبال استفاده از مدلهای زبانی قدرتمند با هزینه کمتر هستند.
به نظر میرسد که علیبابا با این مدل جدید قصد دارد رقابت را در دنیای هوش مصنوعی متنباز جدیتر کند و همزمان دسترسی گستردهتری به ابزارهای هوش مصنوعی فراهم آورد.
برای اطلاعات بیشتر، میتوانید به منبع اصلی این خبر مراجعه کنید:
منبع خبر