ریسک از جایی ناشی میشود که ندانید چه کاری انجام میدهید؛ پس برای کاهش ریسک، آگاهی خودتان را بالا ببرید. - وارن بافت
کارکنان فعلی و سابق شرکتهای پیشرو در حوزهی هوش مصنوعی، از جمله OpenAI و Google DeepMind، با انتشار نامهای سرگشاده خواستار تقویت چارچوبهای حمایتی از منتقدان و افشاگران این حوزه شدند.
در تاریخ ۴ ژوئن، نویسندگان این نامه ضمن تاکید بر لزوم ایفای نقش سازندهی انتقاد و افشاگری در پیشبرد ایمن و مسئولانهی هوش مصنوعی، از شرکتهای فعال در این عرصه خواستند تا از انعقاد توافقنامههایی که مانع بروز انتقادات سازنده و یا با محدود کردن منافع مالی، منتقدان دلسوز را مورد مجازات قرار میدهد، اجتناب ورزند.
این نامه همچنین خواستار ایجاد یک فرهنگ سازمانی مبتنی بر «انتقاد آزاد» در شرکتهای هوش مصنوعی شد. نویسندگان ضمن تاکید بر ضرورت حفظ اسرار تجاری و مالکیت فکری، عنوان کردند که این فرهنگ نباید به معنای نادیده گرفتن و سرکوب انتقادات و دغدغههای کارکنان باشد.
با اشاره به ناکارآمدی فرایندهای گزارشدهی ریسک در برخی موارد، نویسندگان نامه از شرکتها درخواست کردند تا برای کارمندان فعلی و سابق خود سازوکارهای حمایتی جامعتری در نظر بگیرند. آنها در این نامه نوشتند:
«حمایتهای معمول از افشاگران در بسیاری موارد کافی نیست، زیرا این سازوکارها عمدتاً بر فعالیتهای غیرقانونی تمرکز میکنند، در حالی که بسیاری از ریسکهای مرتبط با هوش مصنوعی که ما نگران آن هستیم هنوز تحت مقررات مشخصی قرار نگرفتهاند.»
نویسندگان نامه در نهایت از شرکتهای هوش مصنوعی خواستند تا رویههایی را برای گزارش گمنام ریسکها توسط کارکنان ایجاد کنند. این رویهها باید به کارمندان اجازه دهند تا نگرانیهای خود را به هیئتمدیره شرکت و همچنین سازمانهای نظارتی و نهادهای بیرونی مرتبط با حوزهی هوش مصنوعی گزارش دهند.
نگرانیهای کارکنان در مورد خطرات هوش مصنوعی
نویسندگان این نامهی سرگشاده که خود را کارکنان فعلی و سابق «شرکتهای پیشرو هوش مصنوعی» معرفی کردند، ۱۳ نفر هستند. این گروه شامل ۱۱ عضو فعلی و سابق OpenAI، به علاوه یک عضو سابق Google DeepMind و یک عضو فعلی DeepMind است که پیش از این در Anthropic فعالیت میکردهاند.
آنها با اشاره به سابقهی برخی موارد تلافیجویانه در صنعت هوش مصنوعی، نگرانیهای شخصی خود را اینگونه ابراز داشتند: «با توجه به سوابق تلافیجویانهی موجود در صنعت هوش مصنوعی، برخی از ما بهطور منطقی از انواع مختلف اقدامات تلافیجویانه در صورت طرح انتقادات و دغدغههای خود بیم داریم.»
نویسندگان نامه به خطرات بالقوهی ناشی از توسعهی هوش مصنوعی از جمله تشدید نابرابری، دستکاری و انتشار اطلاعات نادرست، از دست دادن کنترل بر هوش مصنوعی خودکار و انقراض احتمالی بشر اشاره کردند.
آنها بیان داشتند که شرکتهای هوش مصنوعی به همراه دولتها و متخصصان این حوزه، خطرات بالقوهی هوش مصنوعی را به رسمیت شناختهاند. با این حال، متأسفانه، شرکتها «انگیزههای مالی قوی» برای اجتناب از نظارتهای مستقل و تمایل کمی برای به اشتراک گذاشتن داوطلبانهی اطلاعات خصوصی در مورد قابلیتهای سیستمهای خود از خود نشان میدهند.
با وجود این نگرانیها، نویسندگان نامه همچنان بر اعتقاد خود به مزایای هوش مصنوعی تأکید کردند.
زمینهی پیشین: درخواست توقف آزمایشهای عظیم هوش مصنوعی
این درخواست برای تقویت حمایت از افشاگران به دنبال انتشار نامهی سرگشادهای با عنوان «توقف آزمایشهای عظیم هوش مصنوعی» در آوریل ۲۰۲۳ منتشر شد. این نامه نیز به طور مشابه بر خطرات پیرامون هوش مصنوعی تأکید داشت و با امضای رهبران صنعت مانند ایلان ماسک، مدیرعامل تسلا و رئیس هیئت مدیرهی X، و استیو وزنیاک، همبنیانگذار اپل، مورد توجه قرار گرفت.
نامهی ۲۰۲۳ از شرکتهای فعال در حوزهی هوش مصنوعی خواسته بود تا آزمایشهای مرتبط با این حوزه را به مدت شش ماه متوقف کنند تا سیاستگذاران بتوانند چارچوبهای حقوقی، ایمنی و سایر موارد مرتبط را تدوین و تصویب نمایند.