مدل جدید Grok 3 که توسط شرکت xAI توسعه یافته است، به دلیل مسدود کردن منابعی که ایلان ماسک و دونالد ترامپ را از بزرگترین منتشرکنندگان اطلاعات نادرست معرفی کردهاند، با انتقادات گستردهای مواجه شده است. این موضوع نگرانیهایی را درباره شفافیت و نقش هوش مصنوعی در حفظ امنیت عمومی ایجاد کرده است.
انتقاد از فیلتر کردن منابع اطلاعاتی
بر اساس گزارشهای منتشر شده، مدل Grok 3 به گونهای طراحی شده که برخی از منابع خبری معتبر را که ماسک و ترامپ را به انتشار اطلاعات نادرست متهم کردهاند، مسدود میکند. منتقدان بر این باورند که چنین اقدامی میتواند به تحریف اطلاعات و محدود کردن دسترسی کاربران به دادههای بیطرفانه منجر شود.
کنترل تصویر شخصی یا حفظ امنیت عمومی؟
این اقدام از سوی xAI باعث شده که بسیاری از کارشناسان حوزه هوش مصنوعی و آزادی بیان، این سوال را مطرح کنند که آیا امنیت عمومی و شفافیت قربانی مدیریت تصویر شخصی افراد تأثیرگذار شده است؟ برخی از منتقدان معتقدند که این مدل دستکاری شده تا از اعتبار ماسک و ترامپ در برابر گزارشهای منفی محافظت کند.
واکنش کارشناسان و کاربران
جامعه فناوری و کاربران شبکههای اجتماعی نیز واکنشهای متفاوتی به این خبر نشان دادهاند. برخی از کاربران نگران تأثیر چنین الگوریتمهایی بر دسترسی آزاد به اطلاعات هستند، در حالی که برخی دیگر معتقدند این مدل تنها در جهت جلوگیری از انتشار اطلاعات گمراهکننده طراحی شده است.
آینده Grok 3 و هوش مصنوعی در تولید محتوا
با افزایش انتقادها، مسئله نظارت بر هوش مصنوعی و مدیریت آن بهعنوان یک چالش مهم برای شرکتهای فناوری مطرح شده است. آیا xAI واکنش مثبتی به اعتراضات نشان خواهد داد و تغییراتی در سیاستهای Grok 3 ایجاد خواهد کرد؟ این سوالی است که در آیندهای نزدیک پاسخ آن مشخص خواهد شد.
منبع: VentureBeat