گوگل اخیراً یکی از اصول اخلاقی خود را که ممنوعیت توسعه سلاحهای مجهز به هوش مصنوعی بود، حذف کرده است. این اقدام باعث ایجاد بحثهای گستردهای در مورد رویکرد سیلیکون ولی به ایمنی هوش مصنوعی شده و نگرانیهایی درباره توسعه مسئولانه فناوری در بخشهای نظامی و نظارت ایجاد کرده است.
نگرانیها درباره نقش هوش مصنوعی در تسلیحات
پیشتر، گوگل در چارچوب اصول هوش مصنوعی اخلاقی خود، بهطور مشخص اعلام کرده بود که در توسعه «سلاحهای خودکار که قادر به تحمیل آسیب هستند» مشارکت نخواهد کرد. با این حال، حذف این ممنوعیت از سیاستهای شرکت، پرسشهایی را در مورد تعهد واقعی آن به کاربردهای اخلاقی هوش مصنوعی برانگیخته است.
تأثیرات این تغییر رویکرد
حذف ممنوعیت سلاحهای هوش مصنوعی میتواند نشاندهنده تمایل گوگل به همکاری بیشتر با نهادهای نظامی و دولتی باشد. با توجه به استفاده فزاینده از هوش مصنوعی در سامانههای جنگی و نظارتی، این تغییر سیاستی ممکن است به گسترش پروژههایی منجر شود که جنجالهای اخلاقی فراوانی را به دنبال خواهند داشت.
واکنشها به تصمیم گوگل
این اقدام واکنشهای متفاوتی را در پی داشته است. برخی کارشناسان معتقدند که فناوری هوش مصنوعی، اگر به درستی استفاده شود، میتواند به کاهش آسیبهای نظامی و بهبود دفاع سایبری کمک کند. از سوی دیگر، مدافعان حقوق بشر و فعالان فناوری نگرانیهایی در مورد پیامدهای ناخواسته استفاده از سلاحهای هوش مصنوعی دارند، از جمله افزایش احتمال درگیریهای نظامی و کاهش نظارت انسانی بر تصمیمات حیاتی.
آینده هوش مصنوعی و ملاحظات اخلاقی
با توجه به رشد روزافزون قابلیتهای هوش مصنوعی در زمینههای مختلف، از جمله امنیت و نظارت، بحث درباره توسعه مسئولانه این فناوری بیش از پیش اهمیت یافته است. حال باید دید که آیا شرکتهای فناوری مانند گوگل چارچوبهای جدیدی برای استفاده مطمئنتر از فناوریهای هوش مصنوعی ارائه خواهند داد یا خیر.
منبع خبر: VentureBeat