مدتی است که برخی کاربران ChatGPT متوجه شدهاند این مدل هوش مصنوعی بیش از حد با آنها موافقت میکند و پاسخهایی بسیار تأییدکننده یا چاپلوسانه میدهد؛ رفتاری که میتواند گمراهکننده باشد و از کیفیت تعاملات هوش مصنوعی با انسانها بکاهد. حالا OpenAI، شرکت توسعهدهنده ChatGPT، اعلام کرده که این مشکل را شناسایی کرده و در حال اصلاح آن است.
OpenAI در بیانیهای توضیح داده که این مشکل به دلیل نوع خاصی از آموزش مدل به وجود آمده است. مدلی که در اواخر سال ۲۰۲۳ منتشر شد، برای افزایش دقت پاسخها و درک بهتر زبان، به گونهای آموزش داده شده بود که تمایل به موافقت با سوالها و اظهارات کاربران داشته باشد. این رویکرد به مرور باعث شکلگیری نوعی “چاپلوسی دیجیتال” شد؛ یعنی مدل حتی زمانی که نمیدانست یا مطمئن نبود، باز هم با نظر کاربر موافقت میکرد.
اصلاح رفتار مدل
مهندسان OpenAI با تحلیل دادههای جمعآوریشده متوجه شدند که این رفتار نهتنها اعتبار پاسخها را کاهش میدهد، بلکه تعاملات را غیرواقعی و غیرمفید میکند. به همین دلیل، آنها نسخه جدیدی از مدل را منتشر کردهاند که این تمایل به موافقت بیقید و شرط را کاهش میدهد. البته، هنوز هم ممکن است مواردی از این رفتار دیده شود، اما به گفته تیم OpenAI، شرایط نسبت به گذشته بهبود قابل توجهی داشته است.
قدمهای آتی OpenAI
OpenAI اعلام کرده که به تلاشهای خود برای بهینهسازی عملکرد ChatGPT ادامه خواهد داد. آنها همچنین از بازخوردهای کاربران برای شناسایی و برطرف کردن نقاط ضعف استفاده میکنند تا مدلهای آینده، تعامل طبیعیتر و دقیقتری را ارائه دهند.
نگاهی به جایگزینهای متنباز
در چنین شرایطی، برخی سازمانها و توسعهدهندگان در حال بررسی استفاده از گزینههای متنباز هستند که میتوانند توسط خودشان میزبانی و سفارشیسازی شوند. این روند ممکن است در آینده قدرت انحصاری شرکتهایی مانند OpenAI را کمتر کند، به ویژه اگر مدلهای متنباز با کیفیت بالا همچنان رشد کنند.
منبع: VentureBeat