اُپن‌اِی‌آی چاپلوسی چت ‌جی‌پی‌تی را اصلاح کرد و دلیل بروز مشکل را توضیح داد

مدتی است که برخی کاربران ChatGPT متوجه شده‌اند این مدل هوش مصنوعی بیش از حد با آن‌ها موافقت می‌کند و پاسخ‌هایی بسیار تأییدکننده یا چاپلوسانه می‌دهد؛ رفتاری که می‌تواند گمراه‌کننده باشد و از کیفیت تعاملات هوش مصنوعی با انسان‌ها بکاهد. حالا OpenAI، شرکت توسعه‌دهنده ChatGPT، اعلام کرده که این مشکل را شناسایی کرده و در حال اصلاح آن است.

OpenAI در بیانیه‌ای توضیح داده که این مشکل به دلیل نوع خاصی از آموزش مدل به وجود آمده است. مدلی که در اواخر سال ۲۰۲۳ منتشر شد، برای افزایش دقت پاسخ‌ها و درک بهتر زبان، به گونه‌ای آموزش داده شده بود که تمایل به موافقت با سوال‌ها و اظهارات کاربران داشته باشد. این رویکرد به مرور باعث شکل‌گیری نوعی “چاپلوسی دیجیتال” شد؛ یعنی مدل حتی زمانی که نمی‌دانست یا مطمئن نبود، باز هم با نظر کاربر موافقت می‌کرد.

اصلاح رفتار مدل

مهندسان OpenAI با تحلیل داده‌های جمع‌آوری‌شده متوجه شدند که این رفتار نه‌تنها اعتبار پاسخ‌ها را کاهش می‌دهد، بلکه تعاملات را غیرواقعی و غیرمفید می‌کند. به همین دلیل، آن‌ها نسخه جدیدی از مدل را منتشر کرده‌اند که این تمایل به موافقت بی‌قید و شرط را کاهش می‌دهد. البته، هنوز هم ممکن است مواردی از این رفتار دیده شود، اما به گفته تیم OpenAI، شرایط نسبت به گذشته بهبود قابل توجهی داشته است.

قدم‌های آتی OpenAI

OpenAI اعلام کرده که به تلاش‌های خود برای بهینه‌سازی عملکرد ChatGPT ادامه خواهد داد. آن‌ها همچنین از بازخوردهای کاربران برای شناسایی و برطرف کردن نقاط ضعف استفاده می‌کنند تا مدل‌های آینده، تعامل طبیعی‌تر و دقیق‌تری را ارائه دهند.

نگاهی به جایگزین‌های متن‌باز

در چنین شرایطی، برخی سازمان‌ها و توسعه‌دهندگان در حال بررسی استفاده از گزینه‌های متن‌باز هستند که می‌توانند توسط خودشان میزبانی و سفارشی‌سازی شوند. این روند ممکن است در آینده قدرت انحصاری شرکت‌هایی مانند OpenAI را کمتر کند، به ویژه اگر مدل‌های متن‌باز با کیفیت بالا همچنان رشد کنند.

منبع: VentureBeat

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *