مدل جدید Grok 3 که توسط شرکت xAI توسعه یافته است، به دلیل مسدود کردن منابعی که ایلان ماسک و دونالد ترامپ را از بزرگ‌ترین منتشرکنندگان اطلاعات نادرست معرفی کرده‌اند، با انتقادات گسترده‌ای مواجه شده است. این موضوع نگرانی‌هایی را درباره شفافیت و نقش هوش مصنوعی در حفظ امنیت عمومی ایجاد کرده است.

انتقاد از فیلتر کردن منابع اطلاعاتی

بر اساس گزارش‌های منتشر شده، مدل Grok 3 به گونه‌ای طراحی شده که برخی از منابع خبری معتبر را که ماسک و ترامپ را به انتشار اطلاعات نادرست متهم کرده‌اند، مسدود می‌کند. منتقدان بر این باورند که چنین اقدامی می‌تواند به تحریف اطلاعات و محدود کردن دسترسی کاربران به داده‌های بی‌طرفانه منجر شود.

کنترل تصویر شخصی یا حفظ امنیت عمومی؟

این اقدام از سوی xAI باعث شده که بسیاری از کارشناسان حوزه هوش مصنوعی و آزادی بیان، این سوال را مطرح کنند که آیا امنیت عمومی و شفافیت قربانی مدیریت تصویر شخصی افراد تأثیرگذار شده است؟ برخی از منتقدان معتقدند که این مدل دستکاری شده تا از اعتبار ماسک و ترامپ در برابر گزارش‌های منفی محافظت کند.

واکنش کارشناسان و کاربران

جامعه فناوری و کاربران شبکه‌های اجتماعی نیز واکنش‌های متفاوتی به این خبر نشان داده‌اند. برخی از کاربران نگران تأثیر چنین الگوریتم‌هایی بر دسترسی آزاد به اطلاعات هستند، در حالی که برخی دیگر معتقدند این مدل تنها در جهت جلوگیری از انتشار اطلاعات گمراه‌کننده طراحی شده است.

آینده Grok 3 و هوش مصنوعی در تولید محتوا

با افزایش انتقادها، مسئله نظارت بر هوش مصنوعی و مدیریت آن به‌عنوان یک چالش مهم برای شرکت‌های فناوری مطرح شده است. آیا xAI واکنش مثبتی به اعتراضات نشان خواهد داد و تغییراتی در سیاست‌های Grok 3 ایجاد خواهد کرد؟ این سوالی است که در آینده‌ای نزدیک پاسخ آن مشخص خواهد شد.

منبع: VentureBeat

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *