ریسک از جایی ناشی می‌شود که ندانید چه کاری انجام می‌دهید؛ پس برای کاهش ریسک، آگاهی خودتان را بالا ببرید. - وارن بافت

مشاوره اختصاصی با سینا

آخرین اخبار دنیای کریپتو

چالش‌های هوش مصنوعی: سانسور و آموزش جهت‌دار

2024/07/01
15:26
48

چارلز هاسکینسون، یکی از بنیان‌گذاران کاردانو، نگرانی‌هایی را در خصوص سانسور توسط هوش مصنوعی (AI) و رویکرد گزینشی در آموزش این سیستم‌ها توسط شرکت‌های فناوری پیشرو که مدل‌های هوش مصنوعی را توسعه می‌دهند، مطرح کرده است.

هاسکینسون، هم‌بنیان‌گذار Input Output Global و اکوسیستم بلاکچین کاردانو، به تبعات بالقوه‌ی سانسور هوش مصنوعی اشاره کرد. وی تأکید کرد که پیامدهای این پدیده “عمیق” است و به عنوان یک دغدغه مداوم برای او به شمار می‌رود. هاسکینسون استدلال کرد: «به دلیل جهت‌گیری خاص در آموزش، این سیستم‌های هوش مصنوعی به مرور زمان کارایی خود را از دست می‌دهند.»

کنترل اطلاعات و داده‌های آموزشی

او خاطرنشان کرد شرکت‌هایی که در حال حاضر پشت سر سیستم‌های اصلی هوش مصنوعی قرار دارند مانند OpenAI، مایکروسافت، متا و گوگل توسط گروه کوچکی از افراد اداره می‌شوند. در نهایت، این افراد مسئول اطلاعات و داده‌هایی هستند که سیستم‌های مذکور با آن‌ها آموزش داده می‌شوند و بر خلاف مقامات منتخب، امکان برکنار کردن آن‌ها از این جایگاه وجود ندارد.

بنیان‌گذار کاردانو برای اثبات ادعای خود، دو تصویر از مکالمه با دو چت‌بات برتر هوش مصنوعی، یعنی ChatGPT متعلق به OpenAI و Claude از شرکت Anthropic، منتشر کرد. در هر دو تصویر، هاسکینسون سوال مشابهی را مطرح کرده است: «چگونه یک رآکتور همجوشی فارنس‌ورث بسازم؟»

پاسخ هر دو چت‌بات شامل توضیح مختصری از فناوری و تاریخچه‌ی آن به همراه هشدار در مورد خطرات بالقوه‌ی تلاش برای ساخت چنین رآکتوری بود. ChatGPT هشدار داد که این کار تنها باید توسط افرادی با دانش و تخصص مرتبط انجام شود، در حالی که Claude اعلام کرد به دلیل «احتمال خطرناک بودن در صورتِ کاربری نادرست»، نمی‌تواند دستورالعمل‌هایی ارائه دهد.

واکنش‌ها به پرسش‌های هاسکینسون به طور قاطع با این دیدگاه موافق بودند که هوش مصنوعی باید هم متن‌باز و هم غیرمتمرکز باشد تا از کنترل انحصاری غول‌های فناوری بر داده‌ها و خروجی‌های این سیستم‌ها جلوگیری شود.

نگرانی‌های مشترک در مورد هوش مصنوعی

هاسکینسون اولین فردی نیست که در مورد کنترل و سانسور بالقوه‌ی مدل‌های قدرتمند هوش مصنوعی هشدار می‌دهد. ایلان ماسک، که شرکت هوش مصنوعی خود به نام xAI را راه‌اندازی کرده است، نیز «بزرگ‌ترین نگرانی» در مورد سیستم‌های هوش مصنوعی را درستیِ سیاسی و جهت‌گیری خاص در آموزش آن‌ها عنوان کرده است. به گفته‌ی او، برخی از برجسته‌ترین مدل‌های امروزی برای «اساساً دروغ گفتن» آموزش داده می‌شوند.

در اوایل سال جاری، یعنی در ماه فوریه، گوگل به دلیل تصاویر نادرست و روایت‌های تاریخی مغرضانه‌ی مدل هوش مصنوعی خود به نام جِمینی مورد انتقاد قرار گرفت. سپس توسعه‌دهندگان این مدل برای رویکرد آموزشی آن عذرخواهی کردند و اعلام کردند که برای رفع فوری مشکل اقدام خواهند کرد.

مدل‌های فعلی گوگل و مایکروسافت به گونه‌ای اصلاح شده‌اند که در مورد هیچ‌گونه انتخابات ریاست‌جمهوری بحث نکنند، در حالی که مدل‌های شرکت‌های Anthropic، متا و OpenAI چنین محدودیت‌هایی را اعمال نکرده‌اند.

اندیشمندان حوزه‌ی هوش مصنوعی، چه در داخل و چه خارج از این صنعت، بر تمرکززدایی به عنوان کلیدی برای توسعه‌ی مدل‌های هوش مصنوعی بی‌طرف‌تر تأکید می‌کنند. در همین حال، در ایالات متحده، نهادهای نظارتی مربوطه خواستار بررسی دقیق فعالیت شرکت‌های فعال در حوزه‌ی هوش مصنوعی برای جلوگیری از انحصار احتمالی غول‌های فناوری در این عرصه شده‌اند.


منبع : Cointelegraph