مصنوعیها، نژاد و همدردی: چگونه چتباتهای هوش مصنوعی میتوانند تبعیض را تشدید کنند؟
در دنیایی که ناشناس بودن و ارتباط با افراد غریبه جذابیت بیشتری پیدا کرده، نقش فناوریهای دیجیتال به عنوان بستر ارائه حمایتهای روانی روز به روز افزایش مییابد. این روند بهدلیل کمبود گسترده متخصصین سلامت روان در آمریکا، که حدود ۱۵۰ میلیون نفر در مناطق با کمبود شدید دسترسی به آنها زندگی میکنند، بیش از پیش اهمیت پیدا کرده است.
نمونههایی از درخواستهای واقعی در پلتفرم Reddit همچون:
– “به کمکتون احتیاج دارم چون از صحبت با تراپیست میترسم و اصلاً دسترسی بهش ندارم.”
– “آیا واکنشم به رفتار شوهرم که من رو جلوی دوستاشون تمسخر کرد، بیش از حد بوده؟”
– “آیا میشه چند غریبه درباره مسیر زندگیام نظر بدن و آیندهام رو مشخص کنن؟”
این درخواستها نشان از نیاز افراد به پیدا کردن حمایت روانی در فضای آنلاین دارند.
مطالعات اخیر که با استفاده از دادههایی متشکل از ۱۲,۵۱۳ پست و ۷۰,۴۲۹ پاسخ از ۲۶ زیرمجموعه مرتبط با سلامت روان در Reddit انجام شده، الگویی برای ارزیابی کیفیت و عدالت در چتباتهای پشتیبانی روانی مبتنی بر مدلهای زبانی بزرگ مانند GPT-4 ارائه کرده است. این تحقیق به تازگی در کنفرانس روشهای تجربی در پردازش زبان طبیعی (EMNLP 2024) ارائه شد.
### ارزیابی پاسخهای انسانی و هوش مصنوعی
برای بررسی کیفیت پاسخها، پژوهشگران از دو متخصص روانشناس مجاز خواستند تا ۵۰ پست تصادفی را بررسی کنند. این پستها با پاسخهایی از کاربران واقعی یا GPT-4 همراه بودند، بدون اینکه مشخص باشد کدام پاسخ واقعی و کدام هوش مصنوعی است. این روانشناسان میزان همدردی موجود در هر پاسخ را ارزیابی کردند.
چتباتهای هوش مصنوعی از دیرباز به عنوان ابزاری برای بهبود دسترسی به خدمات روانشناسی مطرح بودهاند، اما پیشرفت مدلهای زبانی بزرگ مانند ChatGPT جایگاه تازهای در تعامل انسان و هوش مصنوعی ایجاد کردهاند. با این حال، استفاده از این فناوریها بدون توجه به پیامدهای ناخواسته آن میتواند خطرات جدی به همراه داشته باشد.
### پیامدهای ناخواسته چتباتها
در مارس سال گذشته، یک مرد بلژیکی پس از گفتوگو با چتبات ELIZA (مبتنی بر مدل GPT-J) که طراحی شده بود رفتار یک روانشناس را شبیهسازی کند، دست به خودکشی زد. یک ماه بعد، انجمن ملی اختلالات خوردن در آمریکا چتبات خود به نام “تسا” را متوقف کرد، زیرا این چتبات نکات مربوط به رژیم غذایی را به بیماران مبتلا به اختلالات خوردن ارائه میداد.
### یافتههای پژوهش
طبق نتایج تحقیق، پاسخهای GPT-4 نه تنها سطح بالاتری از همدردی را نشان دادند، بلکه ۴۸ درصد مؤثرتر از پاسخهای انسانی در ترغیب به تغییرات مثبت رفتاری بودند.
با این حال، تحقیقات نشان داد که سطح همدردی در پاسخهای GPT-4 برای پستهای کاربران سیاهپوست بین ۲ تا ۱۵ درصد و برای کاربران آسیایی بین ۵ تا ۱۷ درصد کمتر از کاربران سفیدپوست یا کاربرانی بود که نژادشان مشخص نبود.
### بررسی نشتهای جمعیتی
برای ارزیابی سوگیری، پژوهشگران پستهایی با اطلاعات آشکار و ضمنی درباره نژاد و جنسیت کاربران را در تحلیل خود وارد کردند.
– **نشت آشکار جمعیتی:** مثال: “من یک زن سیاهپوست ۳۲ ساله هستم.”
– **نشت ضمنی جمعیتی:** مثال: “من یک دختر ۳۲ ساله با موهای طبیعی خود هستم.”
در بررسیها مشخص شد که پاسخهای GPT-4 کمتر تحت تأثیر این نشتها قرار میگیرد، به جز برای کاربران زن سیاهپوست. در مقابل، انسانها معمولاً به اطلاعات ضمنی جمعیتی حساستر بودند و همدلی بیشتری بر اساس آن از خود نشان میدادند.
### چگونه میتوان بر تبعیض غلبه کرد؟
این پژوهش نشان داد که ارائه دستورات صریح برای چتباتها جهت توجه به ویژگیهای جمعیتی میتواند نابرابری در پاسخها را کاهش دهد. این تنها حالتی بود که محققان تفاوت قابل توجه در همدلی بین گروههای مختلف جمعیتی مشاهده نکردند.
### چشمانداز آینده
“سعیدا گبریل”، محقق ارشد این پروژه و استادیار دانشگاه کالیفرنیا، امیدوار است که این پژوهش بتواند راهنمایی برای ارزیابی جامعتر مدلهای زبانی بزرگ در فراگیری رفتار پزشکی و تعامل با زیرگروههای جمعیتی مختلف باشد. وی معتقد است که ارائه دستورالعملهای روشن به مدلهای هوش مصنوعی، تأثیر زیادی بر نتایج خواهد داشت.
**مرزیه غاسمی**، استاد مؤسسه علوم پزشکی و مهندسی در دانشگاه MIT، معتقد است: “مدلهای زبانی بزرگ قبلاً برای تعامل مستقیم با بیماران در تنظیمات پزشکی به کار گرفته شدهاند. این امر نشانگر یک فرصت بزرگ برای بهبود این مدلها جهت ارائه حمایتهای بهتر در هنگام استفاده است، اما همچنان باید روی رفع نابرابریهای موجود کار کنیم.”
برای جزئیات بیشتر میتوانید مقاله کامل را در [اینجا](https://aclanthology.org/2024.findings-emnlp.120.pdf) مطالعه کنید.