مطالعه‌ای نشان می‌دهد چت‌بات‌های هوش مصنوعی قادر به تشخیص نژاد هستند، اما سوگیری نژادی باعث کاهش همدلی در پاسخ‌ها می‌شود

مصنوعی‌ها، نژاد و همدردی: چگونه چت‌بات‌های هوش مصنوعی می‌توانند تبعیض را تشدید کنند؟

در دنیایی که ناشناس بودن و ارتباط با افراد غریبه جذابیت بیشتری پیدا کرده، نقش فناوری‌های دیجیتال به عنوان بستر ارائه حمایت‌های روانی روز به روز افزایش می‌یابد. این روند به‌دلیل کمبود گسترده متخصصین سلامت روان در آمریکا، که حدود ۱۵۰ میلیون نفر در مناطق با کمبود شدید دسترسی به آن‌ها زندگی می‌کنند، بیش از پیش اهمیت پیدا کرده است.

نمونه‌هایی از درخواست‌های واقعی در پلتفرم Reddit همچون:
– “به کمکتون احتیاج دارم چون از صحبت با تراپیست می‌ترسم و اصلاً دسترسی بهش ندارم.”
– “آیا واکنشم به رفتار شوهرم که من رو جلوی دوستاشون تمسخر کرد، بیش از حد بوده؟”
– “آیا می‌شه چند غریبه درباره مسیر زندگی‌ام نظر بدن و آینده‌ام رو مشخص کنن؟”

این درخواست‌ها نشان از نیاز افراد به پیدا کردن حمایت روانی در فضای آنلاین دارند.

مطالعات اخیر که با استفاده از داده‌هایی متشکل از ۱۲,۵۱۳ پست و ۷۰,۴۲۹ پاسخ از ۲۶ زیرمجموعه مرتبط با سلامت روان در Reddit انجام شده، الگویی برای ارزیابی کیفیت و عدالت در چت‌بات‌های پشتیبانی روانی مبتنی بر مدل‌های زبانی بزرگ مانند GPT-4 ارائه کرده است. این تحقیق به تازگی در کنفرانس روش‌های تجربی در پردازش زبان طبیعی (EMNLP 2024) ارائه شد.

### ارزیابی پاسخ‌های انسانی و هوش مصنوعی
برای بررسی کیفیت پاسخ‌ها، پژوهشگران از دو متخصص روانشناس مجاز خواستند تا ۵۰ پست تصادفی را بررسی کنند. این پست‌ها با پاسخ‌هایی از کاربران واقعی یا GPT-4 همراه بودند، بدون اینکه مشخص باشد کدام پاسخ واقعی و کدام هوش مصنوعی است. این روان‌شناسان میزان همدردی موجود در هر پاسخ را ارزیابی کردند.

چت‌بات‌های هوش مصنوعی از دیرباز به عنوان ابزاری برای بهبود دسترسی به خدمات روانشناسی مطرح بوده‌اند، اما پیشرفت مدل‌های زبانی بزرگ مانند ChatGPT جایگاه تازه‌ای در تعامل انسان و هوش مصنوعی ایجاد کرده‌اند. با این حال، استفاده از این فناوری‌ها بدون توجه به پیامدهای ناخواسته آن می‌تواند خطرات جدی به همراه داشته باشد.

### پیامدهای ناخواسته چت‌بات‌ها
در مارس سال گذشته، یک مرد بلژیکی پس از گفت‌وگو با چت‌بات ELIZA (مبتنی بر مدل GPT-J) که طراحی شده بود رفتار یک روانشناس را شبیه‌سازی کند، دست به خودکشی زد. یک ماه بعد، انجمن ملی اختلالات خوردن در آمریکا چت‌بات خود به نام “تسا” را متوقف کرد، زیرا این چت‌بات نکات مربوط به رژیم غذایی را به بیماران مبتلا به اختلالات خوردن ارائه می‌داد.

### یافته‌های پژوهش
طبق نتایج تحقیق، پاسخ‌های GPT-4 نه تنها سطح بالاتری از همدردی را نشان دادند، بلکه ۴۸ درصد مؤثرتر از پاسخ‌های انسانی در ترغیب به تغییرات مثبت رفتاری بودند.

با این حال، تحقیقات نشان داد که سطح همدردی در پاسخ‌های GPT-4 برای پست‌های کاربران سیاهپوست بین ۲ تا ۱۵ درصد و برای کاربران آسیایی بین ۵ تا ۱۷ درصد کمتر از کاربران سفیدپوست یا کاربرانی بود که نژادشان مشخص نبود.

### بررسی نشت‌های جمعیتی
برای ارزیابی سوگیری، پژوهشگران پست‌هایی با اطلاعات آشکار و ضمنی درباره نژاد و جنسیت کاربران را در تحلیل خود وارد کردند.
– **نشت آشکار جمعیتی:** مثال: “من یک زن سیاهپوست ۳۲ ساله هستم.”
– **نشت ضمنی جمعیتی:** مثال: “من یک دختر ۳۲ ساله با موهای طبیعی خود هستم.”

در بررسی‌ها مشخص شد که پاسخ‌های GPT-4 کمتر تحت تأثیر این نشت‌ها قرار می‌گیرد، به جز برای کاربران زن سیاهپوست. در مقابل، انسان‌ها معمولاً به اطلاعات ضمنی جمعیتی حساستر بودند و همدلی بیشتری بر اساس آن از خود نشان می‌دادند.

### چگونه می‌توان بر تبعیض غلبه کرد؟
این پژوهش نشان داد که ارائه دستورات صریح برای چت‌بات‌ها جهت توجه به ویژگی‌های جمعیتی می‌تواند نابرابری در پاسخ‌ها را کاهش دهد. این تنها حالتی بود که محققان تفاوت قابل توجه در همدلی بین گروه‌های مختلف جمعیتی مشاهده نکردند.

### چشم‌انداز آینده
“سعیدا گبریل”، محقق ارشد این پروژه و استادیار دانشگاه کالیفرنیا، امیدوار است که این پژوهش بتواند راهنمایی برای ارزیابی جامع‌تر مدل‌های زبانی بزرگ در فراگیری رفتار پزشکی و تعامل با زیرگروه‌های جمعیتی مختلف باشد. وی معتقد است که ارائه دستورالعمل‌های روشن به مدل‌های هوش مصنوعی، تأثیر زیادی بر نتایج خواهد داشت.

**مرزیه غاسمی**، استاد مؤسسه علوم پزشکی و مهندسی در دانشگاه MIT، معتقد است: “مدل‌های زبانی بزرگ قبلاً برای تعامل مستقیم با بیماران در تنظیمات پزشکی به کار گرفته شده‌اند. این امر نشانگر یک فرصت بزرگ برای بهبود این مدل‌ها جهت ارائه حمایت‌های بهتر در هنگام استفاده است، اما همچنان باید روی رفع نابرابری‌های موجود کار کنیم.”

برای جزئیات بیشتر می‌توانید مقاله کامل را در [اینجا](https://aclanthology.org/2024.findings-emnlp.120.pdf) مطالعه کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *