روش کمتر، اما بهتر: همکاری UC Berkeley و گوگل برای بهبود مدلهای زبانی با نمونهگیری ساده
دانشمندان دانشگاه UC Berkeley با همکاری گوگل روشی نوین برای بهینهسازی عملکرد مدلهای زبانی بزرگ (LLM) ارائه کردهاند. طبق این تحقیق، استفاده از نمونهگیری چندگانه و خود-اعتباریابی، موجب بهبود دقت و کارایی مدلهای زبانی میشود.
نتایج این پژوهش نشان داده که مدل زبانی Gemini 1.5 Pro توانسته از طریق این روش جدید، عملکرد بهتری نسبت به نسخه o1-preview در انجام وظایف استدلالی داشته باشد. این یافتهها ثابت میکنند که رویکرد “کمتر، اما بهتر” میتواند تأثیر قابلتوجهی در افزایش دقت مدلهای زبانی داشته باشد.
این پیشرفت جدید در حوزه هوش مصنوعی میتواند کاربردهایی گسترده داشته باشد، از بهینهسازی رباتهای گفتگو گرفته تا بهبود عملکرد موتورهای جستجو و دستیارهای هوشمند. با این حال، هنوز بررسیهای بیشتری برای ارزیابی عملکرد این متد در شرایط واقعی موردنیاز است.
منبع: VentureBeat