ریسک از جایی ناشی میشود که ندانید چه کاری انجام میدهید؛ پس برای کاهش ریسک، آگاهی خودتان را بالا ببرید. - وارن بافت
کارشناسان امنیت بلاکچین هشدار دادهاند که مسمومیت دادههای هوش مصنوعی، بهعنوان تهدیدی جدید، اعتماد به این فناوری را به خطر میاندازد. این نوع حمله شامل تزریق کدهای مخرب به دادههای آموزشی مدلهای هوش مصنوعی است که میتواند کاربران را در استفاده از این ابزارها با ریسک جدی مواجه کند.
حادثهای در دنیای ارزهای دیجیتال
در حادثهای که نگرانیها را برانگیخته، یک معاملهگر ارزهای دیجیتال به نام "r_cky0" گزارش داد که پس از استفاده از ChatGPT برای ساخت یک ربات مرتبط با پلتفرم Pump.fun، حدود ۲,۵۰۰ دلار از داراییهای دیجیتال خود را از دست داده است. این چتبات به اشتباه یک API تقلبی برای سولانا پیشنهاد داد، که منجر به سرقت کلیدهای خصوصی و تخلیه داراییهای کاربر ظرف ۳۰ دقیقه شد.
تحقیقات نشان داد که آدرس مرتبط با این API تقلبی پیشتر نیز توکنهای دزدیدهشده دریافت کرده و دامنه آن تنها دو ماه قبل ثبت شده بود، که نشان از یک حمله برنامهریزیشده دارد.
چالشهای امنیتی در هوش مصنوعی
یافتههای Slowmist نشان میدهد که کلاهبرداران از طریق مخدوش کردن دادههای آموزشی یا ایجاد مخازن جعلی در GitHub، مدلهای هوش مصنوعی را به تولید خروجیهای فریبنده وادار میکنند.
یو شیان، بنیانگذار Slowmist، تأکید کرد که مسمومیت هوش مصنوعی دیگر یک تهدید تئوریک نیست و به یک خطر واقعی تبدیل شده است. وی هشدار داد که بدون تقویت دفاعهای امنیتی، چنین حملاتی میتواند به کاهش اعتماد کاربران به ابزارهای هوش مصنوعی و افزایش ضررهای مالی منجر شود.
پیامدها برای کاربران و توسعهدهندگان
این رویداد نشاندهنده چالشهای رو به افزایش در امنیت ابزارهای هوش مصنوعی است. با رشد استفاده از مدلهای زبانی بزرگ مانند GPT، ضرورت افزایش هوشیاری کاربران و بهکارگیری سیستمهای ایمنی پیشرفتهتر بیش از پیش احساس میشود.