کارشناسان امنیت سایبری یافتهاند که میتوان از مدلهای زبان بزرگ (LLM) جهت تولید انواع جدیدی از کدهای مخرب جاوا اسکریپت استفاده کرد که بهتر از قبل میتوانند غیرقابل شناسایی باقی بمانند. کارشناسان واحد ۴٢ شبکههای پالو آلتو در تحلیلی گفتند که اگر LLMها برای ایجاد بدافزار از پایه تلاش میکنند ولی مجرمان بهراحتی میتوانند از آنها برای بازنویسی یا مبهمسازی بدافزارهای موجود استفاده کنند، که تشخیص آن را خیلی دشوارتر میکند. هکرها میتوانند LLMها را تنظیم کنند تا تغییراتی را انجام دهند که ظاهری بسیار طبیعیتر دارند، که تشخیص این بدافزار را چالشبرانگیزتر میکند. با تغییرات کافی در طول زمان، این رویکرد میتواند این مزیت را داشته باشد که عملکرد سیستمهای طبقهبندی بدافزار را تغییر داده و آنها را فریب میدهد تا باور کنند که کد مخرب، بهظاهر واقعا بیخطر است. درحالیکه ارائهدهندگان LLM به طور فزایندهای حفاظهای امنیتی را برای جلوگیری از خروج LLM از مسیر تولید خروجی ناخواسته اعمال میکنند، مهاجمان ابزارهایی مانند WormGPT را بهعنوان راهی برای خودکارسازی فرآیند ساخت ایمیلهای فیشینگ متقاعد کننده و بهظاهر قانونی که برای اهداف بالقوه ساخته میشوند و حتی ایجاد بدافزار جدید تبلیغ میکنند. در ماه اکتبر سال ٢٠٢۴، شرکت OpenAI افشا کرد که بیش از بیست عملیات و شبکه فریبنده را که سعی در استفاده از پلتفرم آن برای شناسایی، تحقیقات آسیبپذیری، پشتیبانی از اسکریپت و اشکالزدایی دارند، مسدود کرده است.
بدون دیدگاه