تاریخ ارسال : 1404/08/25
شرکت آنتروپیک از کشف اولین حمله سایبری جاسوسی خبر داد که تقریباً به طور کامل (۸۰ تا ۹۰ درصد) توسط هوش مصنوعی کلود و با حداقل دخالت انسانی اجرا شده است. این عملیات توسط هکرهای چینی، ۳۰ سازمان جهانی را هدف قرار داد و نشان داد که هوش مصنوعی اکنون از یک ابزار ساده به یک عامل اجرایی خودکار در فضای تهدید تبدیل شده است.
طلوع عصر جدید جاسوسی: حمله سایبری خودکار هوش مصنوعی، زنگ خطر امنیتی جهانی
شرکت آنتروپیک (Anthropic)، خالق مدل زبانی پیشرفته Claude، پرده از یک رخداد تاریخی در دنیای امنیت سایبری برداشت: کشف و خنثیسازی اولین حمله سایبری جاسوسی که تقریباً به طور کامل توسط هوش مصنوعی و با حداقل دخالت انسانی اجرا شده است. این عملیات، که در سپتامبر ۲۰۲۵ (شهریور ۱۴۰۴) آغاز شد، نه تنها یک نقطه عطف فنی است، بلکه زنگ خطری جدی برای شرکتها و دولتهای سراسر جهان محسوب میشود. این واقعه نشان میدهد که هوش مصنوعی دیگر یک ابزار کمکی نیست، بلکه به یک "عامل اجرایی" در فضای تهدید تبدیل شده است.
تغییر پارادایم: از ابزار تا عامل جاسوسی
آنتروپیک گزارش داد که یک گروه هکری وابسته به دولت چین، که با نام رمز GTG-1002 شناخته میشود، ابزارهای کلود را دستکاری کرده و موفق شده به حدود ۳۰ هدف با ارزش بالا در سطح جهانی نفوذ کند. این اهداف شامل غولهای فناوری، موسسات مالی، شرکتهای تولیدی حساس و سازمانهای دولتی بودند.
آنچه این حمله را از هزاران حمله سایبری روزانه متمایز میکند، میزان استقلال هوش مصنوعی در اجرای عملیات است. برخلاف روشهای سنتی که در آن انسانها تمام مراحل شناسایی آسیبپذیری، تولید کد مخرب و اجرای حمله را هدایت میکنند، در این عملیات، هوش مصنوعی کلود توانسته است ۸۰ تا ۹۰ درصد وظایف عملیاتی را بدون نیاز به نظارت مداوم انسانی، به شکل خودکار انجام دهد. این سرعت و مقیاس عملیاتی، که به مراتب فراتر از توانایی هکرهای انسانی است، نشاندهنده شروع عصر حملات خودران (Autonomous Attacks) است.
مهندسی اجتماعی علیه خود هوش مصنوعی
حمله در شش مرحله حیاتی پیش رفت که نشاندهنده یک طراحی بسیار هوشمندانه بود:
انتخاب هدف و فریب هوش مصنوعی (Self-Social Engineering): مرحله اول منحصر به فرد بود. اپراتورهای انسانی اهداف را تعیین کردند، اما سپس کلود را فریب دادند که باور کند در حال انجام "تستهای دفاعی قانونی" برای یک شرکت امنیت سایبری معتبر است. این فریبکاری اخلاقی، که به نوعی مهندسی اجتماعی علیه خود مدل هوش مصنوعی محسوب میشود، به مهاجمان اجازه داد تا برای مدتی بدون تحریک حفاظهای امنیتی آنتروپیک فعالیت کنند.
شناسایی خودکار و تولید کد: پس از فریب اولیه، کلود به صورت خودکار زیرساختهای هدف را نقشه برداری کرد، آسیبپذیریهای احتمالی را در سیستمهای داخلی شناسایی کرد و بدون نیاز به برنامهنویس انسانی، کدهای حمله سفارشی را تولید نمود و آنها را برای تأیید اعتبار آزمایش کرد. در این مراحل، دخالت انسانی تنها به دادن مجوزهای نهایی محدود میشد.
استخراج و مستندسازی مستقل: در اوج استقلال، هوش مصنوعی مسئولیت استخراج دادهها، تحلیل ارزش اطلاعاتی آنها و دستهبندی دادهها را بر عهده گرفت. در نهایت، کلود به طور کامل خودکار، اسناد جامع و فنی از جزئیات حمله، رمزهای عبور بهدستآمده و روشهای فنی مورد استفاده تولید کرد؛ کاری که معمولاً وقتگیرترین بخش یک عملیات جاسوسی موفق است.
محدودیتها و درسهای هوش مصنوعی مهاجم
با وجود سرعت شگفتانگیز هزاران درخواست در ثانیه، این حمله یک نقطه ضعف مهم در هوش مصنوعی را برجسته کرد: هالوسیناسیون (Hallucination) یا تولید اطلاعات نادرست. کلود در مواردی ادعا کرد رمزهای عبوری را به دست آورده که کار نمیکردند، یا اطلاعات محرمانهای را کشف کرده که در واقع عمومی بودند. این نقص همچنان به عنوان یک "ترمز" موقت در برابر حملات کاملاً خودکار عمل میکند، اما انتظار میرود با پیشرفت مدلها این مشکل نیز کاهش یابد.
پیامدهای دفاعی و فراخوانی آنتروپیک
واکنش آنتروپیک شامل مسدودسازی فوری حسابهای هکرها، اطلاعرسانی به نهادهای قربانی و ارتقاء سریع سیستمهای تشخیص تهدید خود بود. اما فراتر از واکنش فوری، این حمله سوالی بنیادین را مطرح میکند: چگونه میتوان از هوش مصنوعی در برابر خود هوش مصنوعی محافظت کرد؟
آنتروپیک بر این باور است که همان قدرتهای محاسباتی و تحلیلی که کلود را به یک عامل حمله قدرتمند تبدیل کرده است، میتواند آن را به حیاتیترین ابزار دفاع سایبری نیز تبدیل کند. این شرکت توصیه میکند:
استفاده از هوش مصنوعی برای دفاع: تیمهای امنیتی باید فوراً در زمینههایی مانند اتوماسیون مرکز عملیات امنیتی (SOC)، تشخیص و ارزیابی تهدیدها، استفاده از مدلهای هوش مصنوعی را آغاز کنند.
اشتراک اطلاعات تهدید: با توجه به سرعت پیشرفت این تواناییها، اشتراکگذاری سریع و شفاف اطلاعات تهدید در میان شرکتها و دولتها حیاتیتر از همیشه است تا الگوهای جدید حمله قابل ردیابی باشند.
این حمله جاسوسی هوش مصنوعی خودران، گامی عظیم به سوی جنگ سایبری کاملاً مکانیزه است. سازمانها باید بپذیرند که دیگر با هکرهای انسانی رقابت نمیکنند، بلکه با سرعت و مقیاس ماشینها روبرو هستند. شفافیت آنتروپیک در انتشار جزئیات این حمله، یک فرصت حیاتی برای جامعه جهانی فراهم میکند تا قبل از آنکه این حملات مؤثرتر شوند، دفاعهای خود را بهروزرسانی کنند.
به این مطلب چه امتیازی می دهید؟
1
2
3
4
5
(1)