ریسک از جایی ناشی می‌شود که ندانید چه کاری انجام می‌دهید؛ پس برای کاهش ریسک، آگاهی خودتان را بالا ببرید. - وارن بافت

مشاوره اختصاصی با سینا

آخرین اخبار دنیای کریپتو

درخواست کارکنان فعلی و سابق شرکت‌های پیشرو هوش مصنوعی برای تقویت حمایت از افشاگران

2024/06/06
11:28
51

کارکنان فعلی و سابق شرکت‌های پیشرو در حوزه‌ی هوش مصنوعی، از جمله OpenAI و Google DeepMind، با انتشار نامه‌ای سرگشاده خواستار تقویت چارچوب‌های حمایتی از منتقدان و افشاگران این حوزه شدند.

در تاریخ ۴ ژوئن، نویسندگان این نامه ضمن تاکید بر لزوم ایفای نقش سازنده‌ی انتقاد و افشاگری در پیشبرد ایمن و مسئولانه‌ی هوش مصنوعی، از شرکت‌های فعال در این عرصه خواستند تا از انعقاد توافقنامه‌هایی که مانع بروز انتقادات سازنده و یا با محدود کردن منافع مالی، منتقدان دلسوز را مورد مجازات قرار می‌دهد، اجتناب ورزند.

این نامه همچنین خواستار ایجاد یک فرهنگ سازمانی مبتنی بر «انتقاد آزاد» در شرکت‌های هوش مصنوعی شد. نویسندگان ضمن تاکید بر ضرورت حفظ اسرار تجاری و مالکیت فکری، عنوان کردند که این فرهنگ نباید به معنای نادیده گرفتن و سرکوب انتقادات و دغدغه‌های کارکنان باشد.

با اشاره به ناکارآمدی فرایندهای گزارش‌دهی ریسک در برخی موارد، نویسندگان نامه از شرکت‌ها درخواست کردند تا برای کارمندان فعلی و سابق خود سازوکارهای حمایتی جامع‌تری در نظر بگیرند. آن‌ها در این نامه نوشتند:

«حمایت‌های معمول از افشاگران در بسیاری موارد کافی نیست، زیرا این سازوکارها عمدتاً بر فعالیت‌های غیرقانونی تمرکز می‌کنند، در حالی که بسیاری از ریسک‌های مرتبط با هوش مصنوعی که ما نگران آن هستیم هنوز تحت مقررات مشخصی قرار نگرفته‌اند.»

نویسندگان نامه در نهایت از شرکت‌های هوش مصنوعی خواستند تا رویه‌هایی را برای گزارش گمنام ریسک‌ها توسط کارکنان ایجاد کنند. این رویه‌ها باید به کارمندان اجازه دهند تا نگرانی‌های خود را به هیئت‌مدیره شرکت و همچنین سازمان‌های نظارتی و نهادهای بیرونی مرتبط با حوزه‌ی هوش مصنوعی گزارش دهند.

نگرانی‌های کارکنان در مورد خطرات هوش مصنوعی

نویسندگان این نامه‌ی سرگشاده که خود را کارکنان فعلی و سابق «شرکت‌های پیشرو هوش مصنوعی» معرفی کردند، ۱۳ نفر هستند. این گروه شامل ۱۱ عضو فعلی و سابق OpenAI، به علاوه یک عضو سابق Google DeepMind و یک عضو فعلی DeepMind است که پیش از این در Anthropic فعالیت می‌کرده‌اند.

آن‌ها با اشاره به سابقه‌ی برخی موارد تلافی‌جویانه در صنعت هوش مصنوعی، نگرانی‌های شخصی خود را اینگونه ابراز داشتند: «با توجه به سوابق تلافی‌جویانه‌ی موجود در صنعت هوش مصنوعی، برخی از ما به‌طور منطقی از انواع مختلف اقدامات تلافی‌جویانه در صورت طرح انتقادات و دغدغه‌های خود بیم داریم.»

نویسندگان نامه به خطرات بالقوه‌ی ناشی از توسعه‌ی هوش مصنوعی از جمله تشدید نابرابری، دستکاری و انتشار اطلاعات نادرست، از دست دادن کنترل بر هوش مصنوعی خودکار و انقراض احتمالی بشر اشاره کردند.

آن‌ها بیان داشتند که شرکت‌های هوش مصنوعی به همراه دولت‌ها و متخصصان این حوزه، خطرات بالقوه‌ی هوش مصنوعی را به رسمیت شناخته‌اند. با این حال، متأسفانه، شرکت‌ها «انگیزه‌های مالی قوی» برای اجتناب از نظارت‌های مستقل و تمایل کمی برای به اشتراک گذاشتن داوطلبانه‌ی اطلاعات خصوصی در مورد قابلیت‌های سیستم‌های خود از خود نشان می‌دهند.

با وجود این نگرانی‌ها، نویسندگان نامه همچنان بر اعتقاد خود به مزایای هوش مصنوعی تأکید کردند.

زمینه‌ی پیشین: درخواست توقف آزمایش‌های عظیم هوش مصنوعی

این درخواست برای تقویت حمایت از افشاگران به دنبال انتشار نامه‌ی سرگشاده‌ای با عنوان «توقف آزمایش‌های عظیم هوش مصنوعی» در آوریل ۲۰۲۳ منتشر شد. این نامه نیز به طور مشابه بر خطرات پیرامون هوش مصنوعی تأکید داشت و با امضای رهبران صنعت مانند ایلان ماسک، مدیرعامل تسلا و رئیس هیئت مدیره‌ی X، و استیو وزنیاک، هم‌بنیانگذار اپل، مورد توجه قرار گرفت.

نامه‌ی ۲۰۲۳ از شرکت‌های فعال در حوزه‌ی هوش مصنوعی خواسته بود تا آزمایش‌های مرتبط با این حوزه را به مدت شش ماه متوقف کنند تا سیاست‌گذاران بتوانند چارچوب‌های حقوقی، ایمنی و سایر موارد مرتبط را تدوین و تصویب نمایند.


منبع : Cryptoslate