ریسک از جایی ناشی میشود که ندانید چه کاری انجام میدهید؛ پس برای کاهش ریسک، آگاهی خودتان را بالا ببرید. - وارن بافت
چارلز هاسکینسون، یکی از بنیانگذاران کاردانو، نگرانیهایی را در خصوص سانسور توسط هوش مصنوعی (AI) و رویکرد گزینشی در آموزش این سیستمها توسط شرکتهای فناوری پیشرو که مدلهای هوش مصنوعی را توسعه میدهند، مطرح کرده است.
هاسکینسون، همبنیانگذار Input Output Global و اکوسیستم بلاکچین کاردانو، به تبعات بالقوهی سانسور هوش مصنوعی اشاره کرد. وی تأکید کرد که پیامدهای این پدیده “عمیق” است و به عنوان یک دغدغه مداوم برای او به شمار میرود. هاسکینسون استدلال کرد: «به دلیل جهتگیری خاص در آموزش، این سیستمهای هوش مصنوعی به مرور زمان کارایی خود را از دست میدهند.»
کنترل اطلاعات و دادههای آموزشی
او خاطرنشان کرد شرکتهایی که در حال حاضر پشت سر سیستمهای اصلی هوش مصنوعی قرار دارند – مانند OpenAI، مایکروسافت، متا و گوگل – توسط گروه کوچکی از افراد اداره میشوند. در نهایت، این افراد مسئول اطلاعات و دادههایی هستند که سیستمهای مذکور با آنها آموزش داده میشوند و بر خلاف مقامات منتخب، امکان برکنار کردن آنها از این جایگاه وجود ندارد.
بنیانگذار کاردانو برای اثبات ادعای خود، دو تصویر از مکالمه با دو چتبات برتر هوش مصنوعی، یعنی ChatGPT متعلق به OpenAI و Claude از شرکت Anthropic، منتشر کرد. در هر دو تصویر، هاسکینسون سوال مشابهی را مطرح کرده است: «چگونه یک رآکتور همجوشی فارنسورث بسازم؟»
پاسخ هر دو چتبات شامل توضیح مختصری از فناوری و تاریخچهی آن به همراه هشدار در مورد خطرات بالقوهی تلاش برای ساخت چنین رآکتوری بود. ChatGPT هشدار داد که این کار تنها باید توسط افرادی با دانش و تخصص مرتبط انجام شود، در حالی که Claude اعلام کرد به دلیل «احتمال خطرناک بودن در صورتِ کاربری نادرست»، نمیتواند دستورالعملهایی ارائه دهد.
واکنشها به پرسشهای هاسکینسون به طور قاطع با این دیدگاه موافق بودند که هوش مصنوعی باید هم متنباز و هم غیرمتمرکز باشد تا از کنترل انحصاری غولهای فناوری بر دادهها و خروجیهای این سیستمها جلوگیری شود.
نگرانیهای مشترک در مورد هوش مصنوعی
هاسکینسون اولین فردی نیست که در مورد کنترل و سانسور بالقوهی مدلهای قدرتمند هوش مصنوعی هشدار میدهد. ایلان ماسک، که شرکت هوش مصنوعی خود به نام xAI را راهاندازی کرده است، نیز «بزرگترین نگرانی» در مورد سیستمهای هوش مصنوعی را درستیِ سیاسی و جهتگیری خاص در آموزش آنها عنوان کرده است. به گفتهی او، برخی از برجستهترین مدلهای امروزی برای «اساساً دروغ گفتن» آموزش داده میشوند.
در اوایل سال جاری، یعنی در ماه فوریه، گوگل به دلیل تصاویر نادرست و روایتهای تاریخی مغرضانهی مدل هوش مصنوعی خود به نام جِمینی مورد انتقاد قرار گرفت. سپس توسعهدهندگان این مدل برای رویکرد آموزشی آن عذرخواهی کردند و اعلام کردند که برای رفع فوری مشکل اقدام خواهند کرد.
مدلهای فعلی گوگل و مایکروسافت به گونهای اصلاح شدهاند که در مورد هیچگونه انتخابات ریاستجمهوری بحث نکنند، در حالی که مدلهای شرکتهای Anthropic، متا و OpenAI چنین محدودیتهایی را اعمال نکردهاند.
اندیشمندان حوزهی هوش مصنوعی، چه در داخل و چه خارج از این صنعت، بر تمرکززدایی به عنوان کلیدی برای توسعهی مدلهای هوش مصنوعی بیطرفتر تأکید میکنند. در همین حال، در ایالات متحده، نهادهای نظارتی مربوطه خواستار بررسی دقیق فعالیت شرکتهای فعال در حوزهی هوش مصنوعی برای جلوگیری از انحصار احتمالی غولهای فناوری در این عرصه شدهاند.