ریسک از جایی ناشی میشود که ندانید چه کاری انجام میدهید؛ پس برای کاهش ریسک، آگاهی خودتان را بالا ببرید. - وارن بافت
گزارش جدید شرکت الپتیک، پرده از دورهی جدیدی از تهدیدات سایبری برمیدارد که با سوءاستفاده از هوش مصنوعی (AI) در جرائم رمزارزی رقم میخورد. این گزارش ضمن هشدار در خصوص این روند، بر لزوم شناسایی نشانههای اولیهی فعالیتهای مجرمانه برای پیشگیری و کاهش مخاطرات تأکید میکند.
این گزارش با اذعان به نقش هوش مصنوعی در ایجاد نوآوریهای قابل توجه در صنایع مختلف، از جمله حوزهی رمزارزهای مبتنی بر هوش مصنوعی سخن میگوید. نوآوریهایی که منجر به ظهور پروژههای متعددی شده و چشمانداز این حوزه را متحول خواهند کرد.
با این حال، همانند هر فناوری نوظهور دیگری، هوش مصنوعی نیز در معرض خطر سوءاستفاده توسط بازیگران مخرب برای اهداف غیرقانونی قرار دارد.
سوءاستفاده از جعل عمیق (Deepfake) برای فریب فعالان حوزه رمزارز
بر اساس گزارش الپتیک، مجرمان سایبری از ویدئوهای مبتنی بر جعل عمیق (دیپفیک) و محتوای تولید شده توسط هوش مصنوعی برای تبلیغ طرحهای کلاهبرداری در حوزهی رمزارز استفاده میکنند.
این ویدئوها با شبیهسازی چهره افراد تأثیرگذار مانند مدیران عامل شرکتهای مطرح و شخصیتهای سیاسی، به دروغ القا میکنند که پروژهی مورد نظر مورد تأیید و حمایت این افراد قرار دارد و از این طریق، مشروعیت کاذبی برای کلاهبرداریهای خود میسازند.
گزارش الپتیک همچنین به کلاهبرداریهای عظیممقیاس عاشقانه اشاره میکند که با برقراری ارتباط طولانیمدت و فریبنده با قربانیان، آنها را برای سرمایهگذاری در طرحهای جعلی ترغیب میکنند.
علاوه بر این، سوءاستفاده از فناوری دیپفیک برای جعل هویت مدیران ارشد شرکتها در جلسات آنلاین نیز گزارش شده است. این اقدام مجرمانه با هدف مجاز شمردن تراکنشهای کلان و وارد آوردن خسارت به شرکت و بخش رمزارز صورت میگیرد.
تقویت بازارهای غیرقانونی با هوش مصنوعی
ابزارهایی مانند (ChatGPT) که برای تولید یا اشکالزدایی کد به کار میروند، میتوانند در صورت سوءاستفاده، تسهیلکنندهی جرایم سایبری در حوزهی رمزارز باشند. این ابزارها با شناسایی آسیبپذیریهای امنیتی در قراردادهای هوشمند و کدهای منبع باز که در بسیاری از اپلیکیشنهای غیرمتمرکز رمزارزی (DeFi) مورد استفاده قرار میگیرند، زمینهی نفوذ هکرها را فراهم میکنند.
هرچند ظهور حسابرسی امور مالی غیرمتمرکز (DeFi) با هدف مقابله با این خطرات صورت گرفته است، اما گزارش الپتیک ضمن هشدار در خصوص قابلیتهای فعلی هوش مصنوعی، ابراز نگرانی میکند که این فناوری توسط هکرها برای شناسایی سریع آسیبپذیریها در پروتکلهای امور مالی غیرمتمرکز مورد سوءاستفاده قرار گیرد.
انجمنهای فعال در دارک وب نیز در حال بررسی مدلهای زبان بزرگ (LLMs) برای ارتکاب جرایم مرتبط با رمزارز هستند. این اقدامات شامل مهندسی معکوس عبارات کلید والتهای رمزارزی و خودکارسازی کلاهبرداریهایی مانند فیشینگ و توزیع بدافزار میشود.
بازارهای دارک وب همچنین نسخههای غیرقانونی از ابزارهایی مانند GPT را برای جرایم رمزارزی مبتنی بر هوش مصنوعی ارائه میدهند. این ابزارها با هدف دور زدن سیستمهای شناسایی طراحی شدهاند.
گزارش الپتیک با اشاره به WormGPT، ابزاری که خود را دشمن ChatGPT معرفی میکند، بر لزوم توجه به ماهیت دوگانهی این فناوری و پتانسیل سوءاستفاده از آن تأکید میکند. این ابزار به صراحت برای تسهیل ساخت ایمیلهای فیشینگ، سرقت اطلاعات مالی (کاردینگ) و تولید بدافزار تبلیغ میشود.
هشدار ایالات متحده در خصوص جرائم رمزارزی مبتنی بر هوش مصنوعی کره شمالی
سازمان ملل متحد، بازیگران دولتی کره شمالی را مسئول بیش از ۶۰ مورد سرقت رمزارز میداند که منجر به خسارات مالی بالغ بر ۳ میلیارد دلار در فاصلهی سالهای ۲۰۱۷ تا ۲۰۲۳ شده است. گزارش شرکت امنیتی سایبری الپتیک، حاکی از شواهدی است که نشان میدهد کره شمالی در حال بررسی و توسعهی قابلیتهای هوش مصنوعی برای تقویت توانمندیهای هک خود میباشد.
خانم آنه نوبریگر، معاون امنیت سایبری و فناوریهای نوظهور شورای امنیت ملی آمریکا، بر اساس این گزارش، ضمن ابراز نگرانیهای فزاینده در خصوص جرائم سایبری با استفاده از هوش مصنوعی، بر لزوم توجه جدی به این تهدید نوظهور تاکید کرده است.
گزارش الپتیک همچنین بر پیشرفتهای قابل توجه کره شمالی در حوزهی تحقیقات هوش مصنوعی از سال ۲۰۱۳ به بعد صحه میگذارد. این پیشرفتها عمدتاً بر کاربردهایی نظیر فناوری تشخیص چهره و سایر موارد با قابلیت استفادهی بالقوه در حوزهی نظامی متمرکز شده است. دانشگاه کیم ایل سونگ نیز به عنوان یکی از بازیگران اصلی در توسعهی برنامههای هوش مصنوعی کره شمالی شناخته میشود و با نهادهای چینی در این زمینه همکاری دارد.
با وجود اینکه الپتیک تاکنون مدرکی دال بر استفادهی مستقیم بازیگران دولتی خصمانه از هوش مصنوعی بر روی بلاکچینها پیدا نکرده است، اما آزمایش مدلهای زبان بزرگ (LLMs) توسط این گروهها برای ارتقای مهارتهای هک، زنگ خطری جدی برای امنیت داراییهای دیجیتال به شمار میرود.