ریسک از جایی ناشی می‌شود که ندانید چه کاری انجام می‌دهید؛ پس برای کاهش ریسک، آگاهی خودتان را بالا ببرید. - وارن بافت

مشاوره اختصاصی با سینا

آخرین اخبار دنیای کریپتو

حمله سایبری علیه OpenAI و نگرانی‌های امنیتی در توسعه هوش مصنوعی

2024/07/06
10:21
36

بر اساس گزارش منتشر شده در نیویورک تایمز در تاریخ ۴ جولای ۲۰۲۳، شرکت OpenAI که در زمینه هوش مصنوعی فعالیت می‌کند، در سال گذشته مورد حمله سایبری قرار گرفت. با این حال، این شرکت این رخداد را علناً اعلام نکرده است.

گزارش‌ها حاکی از آن است که مدیران OpenAI در ماه آوریل ۲۰۲۳ طی جلسه‌ای داخلی، کارمندان را از این حمله مطلع ساخته‌اند. اما از آنجا که مهاجم به اطلاعات مشتریان یا شرکای تجاری این شرکت دسترسی پیدا نکرده بود، تصمیم به عدم افشای عمومی آن گرفته شد.

علاوه بر این، به دلیل اینکه مدیران OpenAI مهاجم را فردی مستقل و بدون ارتباط با هیچ دولت خارجی تلقی می‌کردند، این حمله را تهدیدی برای امنیت ملی تلقی نکردند. در نتیجه، این رخداد به FBI یا سایر نهادهای مجری قانون گزارش نشد.

طبق گزارش‌ها، مهاجم با نفوذ به سیستم پیام‌رسان داخلی OpenAI، موفق به سرقت جزئیاتی از مکالمات کارمندان در یک انجمن آنلاین شده است. این جزئیات، شامل اطلاعاتی در رابطه با طراحی فناوری هوش مصنوعی این شرکت می‌باشند. با این وجود، مهاجم نتوانسته به سیستم‌هایی که OpenAI در آن‌ها هوش مصنوعی را توسعه و نگهداری می‌کند، نفوذ کند و همچنین به کدهای این شرکت دسترسی پیدا نکرده است.

نگرانی‌های کارمند سابق

نیویورک تایمز همچنین به اظهارات لئوپولد آشِنبرنر، محقق سابق OpenAI اشاره می‌کند. آقای آشِنبرنر پس از این حادثه، یادداشتی خطاب به مدیران OpenAI ارسال کرده و خواستار اقداماتی برای جلوگیری از سرقت اسرار تجاری شرکت توسط چین و سایر کشورهای خارجی شده است.

خانم لیز بورژوآ، نماینده OpenAI ضمن قدردانی از نگرانی‌های آقای آشِنبرنر و تأکید بر حمایت این شرکت از توسعه ایمن هوش مصنوعی عمومی (AGI)، صحت برخی اظهارات وی را رد کرد. سخنگوی OpenAI اعلام کرده است که: «با بسیاری از ادعاهای [آشِنبرنر] مخالفیم، از جمله توصیف وی از امنیت ما و به‌ویژه این حادثه خاص. ما پیش از پیوستن ایشان به شرکت، این رخداد را بررسی و با هیئت مدیره در میان گذاشتیم.»

آقای آشِنبرنر ادعا می‌کند که به دلیل افشای اطلاعات دیگر و به دلایل سیاسی از OpenAI اخراج شده است. با این حال، خانم بورژوآ تأکید کرده است که نگرانی‌های وی منجر به جدایی ایشان از شرکت نشده است.

مت نایت، مدیر بخش امنیت OpenAI بر تعهدات امنیتی این شرکت تأکید کرد. او به نیویورک تایمز گفت که این شرکت «سال‌ها قبل از توسعه و عرضه چت‌گپت (ChatGPT)، روی امنیت سرمایه‌گذاری کرده است». آقای نایت اذعان داشت که توسعه هوش مصنوعی «با برخی خطرات همراه است و ما باید برای رفع آن‌ها تلاش کنیم.»


منبع : Cryptoslate