کارشناسان امنیت سایبری یافته‌اند که می‌توان از مدل‌های زبان بزرگ (LLM) جهت تولید انواع جدیدی از کد‌های مخرب جاوا اسکریپت استفاده کرد که بهتر از قبل می‌توانند غیرقابل شناسایی باقی بمانند. ‌کارشناسان واحد ۴٢ شبکه‌های پالو آلتو در تحلیلی گفتند که اگر LLM‌ها برای ایجاد بدافزار از پایه تلاش می‌کنند ولی مجرمان به‌راحتی می‌توانند از آنها برای بازنویسی یا مبهم‌سازی بدافزار‌های موجود استفاده کنند، که تشخیص آن را خیلی دشوارتر می‌کند. هکرها می‌توانند LLM‌ها را تنظیم کنند تا تغییراتی را انجام دهند که ظاهری بسیار طبیعی‌تر دارند، که تشخیص این بدافزار را چالش‌برانگیز‌تر می‌کند. ‌با تغییرات کافی در طول زمان، این رویکرد می‌تواند این مزیت را داشته باشد که عملکرد سیستم‌های طبقه‌بندی بدافزار را تغییر داده و آنها را فریب می‌دهد تا باور کنند که کد مخرب، به‌ظاهر واقعا بی‌خطر است. ‌در‌حالی‌که ارائه‌دهندگان LLM به طور فزاینده‌ای حفاظ‌های امنیتی را برای جلوگیری از خروج LLM از مسیر تولید خروجی ناخواسته اعمال می‌کنند، مهاجمان ابزار‌هایی مانند WormGPT را به‌عنوان راهی برای خودکار‌سازی فرآیند ساخت ایمیل‌های فیشینگ متقاعد کننده و به‌ظاهر قانونی که برای اهداف بالقوه ساخته می‌شوند و حتی ایجاد بدافزار جدید تبلیغ می‌کنند. ‌در ماه اکتبر سال ٢٠٢۴، شرکت OpenAI افشا کرد که بیش از بیست عملیات و شبکه فریبنده را که سعی در استفاده از پلتفرم آن برای شناسایی، تحقیقات آسیب‌پذیری، پشتیبانی از اسکریپت و اشکال‌زدایی دارند، مسدود کرده است.

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *