نامیدن هوش مصنوعی به عنوان «متن باز» در حالی که کسی نمیتواند به تمام جزئیات آن دسترسی داشته باشد، آن را آزمایش کند یا فرایندهای شکلگیری آن را درک کند، گمراهکننده است.
یکی از چالشهای جدی در دنیای هوش مصنوعی، شفافیت گزینشی است. برخی شرکتها ادعا میکنند که مدلهایشان متن باز است، اما در واقع، تنها بخشهایی از آن را در اختیار عموم قرار میدهند. این رویکرد نهتنها باعث سردرگمی در صنعت فناوری میشود، بلکه ریسکهای امنیتی و اخلاقی نیز به همراه دارد.
مسئله اصلی اینجاست که وقتی توسعهدهندگان و محققان نتوانند بهطور کامل به کد منبع، دادههای آموزشی و نحوه عملکرد مدلهای هوش مصنوعی دسترسی داشته باشند، کنترل و نظارت بر این فناوری دشوار خواهد بود. این موضوع میتواند به سوءِ استفادههای احتمالی و کاهش اعتماد عمومی نسبت به این فناوری منجر شود.
اگر هوش مصنوعی واقعاً قرار است متن باز باشد، باید تمامی اجزا، از جمله نحوه جمعآوری دادهها و الگوریتمهای پردازش، شفاف و در دسترس باشد. در غیر این صورت، استفاده از واژه «متن باز» برای این فناوری تنها یک استراتژی بازاریابی محسوب میشود که میتواند باعث گمراهی کاربران و کارشناسان شود.
در نهایت، شفافیت واقعی در توسعه هوش مصنوعی میتواند به رشد و پیشرفت این فناوری کمک کند، اما شفافیت گزینشی میتواند چالشهای جدیدی را به وجود آورد. ازاینرو، محققان و متخصصان درخواست دارند که رویکردهای شفافتر و مسئولانهتری در زمینه توسعه مدلهای هوش مصنوعی اتخاذ شود.