استفاده از CHATGPT برای ساخت بدافزار روز صفر 

یک محقق امنیتی شرکت Forcepoint ، تنها با استفاده از دستورات ChatGPT ،  هوش مصنوعی (AI)  را علیرغم دستور خود مبنی بر رد درخواست‌های مخرب متقاعد کرد تا بدافزاری برای یافتن و استخراج اسناد خاص ایجاد کند. این بدافزار روز صفر  با هدف سرقت داده ، میتواند ابزارهای تشخیص مبتنی بر امضا ، رفتار و همینطور محافظ های جلوگیری از استفاده مخرب چت بات ها را فریب دهد .

Forcepoint مجموعه ای از راه حل های امنیتی شبکه که فرآیندهای غالباً پیچیده را متمرکز و ساده تر کرده را ارائه می دهد و امنیت شبکه قوی را در سراسر شرکت شما تضمین می کند.

این محقق بدون نوشتن حتی یک خط کد و اعتراف به اینکه هیچ تجربه‌ای در توسعه بدافزار ندارد ، توانست از طریق چند اعلان ساده ChatGPT که در نهایت به ایجاد یک ابزار بدافزار پیچیده منجر شد این کار را انجام دهد. این بدافزار قادر به جستجوی بی‌صدا یک سیستم برای اسناد خاص و همینطور شکستن و قرار دادن آن اسناد در فایل های تصویری و ارسال آنها به Google Drive بود.

آرون مولگرو، معمار راه‌حل‌ها در کمپانی فورس پوینت و یکی از نویسندگان بدافزار می‌گوید: تنها چهار ساعت از زمان ارسال اولیه به ChatGPT تا داشتن یک بدافزار در حال کار با شناسایی صفر در Virus Total طول کشید.

 پنهان‌نگاری؛ پنهان سازی یک پیام کوچک درون فایل بزرگتری که ظاهراً حاوی چیز دیگری است

Steganography ( پنهان‌نگاری ) هنر و علم برقراری ارتباط پنهانی است؛ هدف آن پنهان کردن ارتباط به وسیله قرار دادن پیام در یک رسانه پوششی است به گونه‌ای که کمترین تغییر قابل کشف را در آن ایجاد نماید و نتوان موجودیت پیام پنهان در رسانه را حتی به صورت احتمالی آشکار ساخت؛ پنهان‌نگاری شاخه‌ای از دانشی به نام اختفاء اطلاعات (Data Hiding) است؛ دانش اختفاء اطلاعات خود شامل چندین شاخه از جمله Cryptography، Watermarking می‌باشد؛ افرادی که می‌خواهند به صورت سری با یکدیگر ارتباط داشته باشند، اغلب سعی می‌کنند که آن ارتباط را به هر نحوی پنهان کنند.

Steganography برگرفته از دو کلمه ی یونانی stego به معنای پوشیده و graphy به معنای نوشتن است؛ بنابراین کل کلمه به معنای پوشیده‌نویسی یا پنهان‌نگاری می‌باشد.

شکستن سیستم حفاظتیChatGPT

مولگرو می‌گوید دلیل تمرین او این بود که نشان دهد، چقدر آسان از نرده‌های محافظ ChatGPT برای ایجاد بدافزاری که معمولاً به مهارت‌های فنی قابل توجهی نیاز ندارد، می توان گذشت.

از نظر این محقق امنیتی ، چت باتهای مجهز به هوش مصنوعی هدف مبهم‌سازی را ، حتی اگر در درخواست‌ها به صراحت به فرار از تشخیص اشاره نشده باشد ،درک می‌کنند .

در توسعه نرم افزار مبهم‌سازی کد (Obfuscation) به مبهم سازی عامدانه کد منبع یا کد ماشین به شکلی که درک آن برای انسان سخت باشد، گفته می‌شود. برخی زبان‌های برنامه‌نویسی تمایل بیشتری به مبهم سازی دارند. در رأس آن‌ها، زبان‌هایی از قبیل C، C++ و Perl انتخاب‌های اول برای مبهم سازی هستند.
در حال حاضر مسائل امنیتی پیرامون OpenAI’s ChatGPT large language model (LLM) برجسته شده اند. نگرانی‌ها شامل مواردی از جمله اینکه ChatGPT می تواند سرعت نوشتن بدافزار را به شدت افزایش دهد و همینطور مهاجمانی که از ChatGPT برای ایجاد بدافزار چند شکلی استفاده می‌کنند و یا مهاجمانی که از آن به عنوان طعمه در کلاهبرداری‌های فیشینگ استفاده می‌کنند و کارمندانی که با داده‌های حساس تجاری و اطلاعات محافظت شده سر و کار دارند. می شود.


 کارمندانی که داده‌های حساس تجاری و اطلاعات محافظت شده از حریم خصوصی را به مدل‌های زبان بزرگ (LLM) مانند ChatGPT ارسال می‌کنند، این نگرانی را ایجاد می‌کند که سرویس‌های هوش مصنوعی (AI) می‌توانند داده‌ها را در مدل‌های خود ادغام کنند و این اطلاعات می‌توانند در تاریخ بعدی بازیابی شوند. اگر امنیت داده مناسب برای سرویس وجود نداشته باشد..
مدل‌های زبان بزرگ (LLM) فناوری زیربنایی هستند که به رشد بسیارسریع چت‌ربات‌های هوش مصنوعی مولد کمک کرده‌اند. ابزارهایی مانند ChatGPT، Google Bard و Bing Chat همگی به LLM برای ایجاد پاسخ‌های انسان‌مانند به درخواست‌ها و سؤالات شما متکی هستند.
برخی مخالفان این سوال را مطرح کرده اند که آیا این نگرانی ها بیش از حد مطرح شده است. اما دیگران، از جمله ایلان ماسک، سرمایه‌گذار اولیه OpenAI و بسیاری از چهره‌های برجسته صنعت، حتی هشدار داده‌اند که هوش مصنوعی در آینده قدرتمندتر (مانند نسخه بعدی پلتفرمی که ChatGPT مبتنی بر آن است) می‌تواند به معنای واقعی کلمه جهان را تحت کنترل خود درآورد و تهدید کند.

ارسال کد مخرب به ChatGPT

تحقیقات مولگرو احتمالاً برای آرام کردن کسانی که ابزارهای هوش مصنوعی را یک خطر بزرگ امنیتی می‌دانند، کمکی نمی‌کند. در یک پست وبلاگ Forcepoint ، مولگرو توضیحی گام به گام از نحوه ترغیب ChatGPT برای ساختن یک ابزار بدافزار به طور کامل ارائه داد .به این ترتیب که با درخواست اولیه برای تولید کدی شروع می شود که به عنوان بدافزار واجد شرایط باشد.

هنگامی که فیلتر محتوای ChatGPT مطابق انتظار آن درخواست را رد کرد، مولگرو تصمیم گرفت توسط ابزارهای هوش مصنوعی ، قطعه‌های کوچکی از کد را در کنار هم قرار داده و به عنوان بدافزار سرقت داده اجرا کند.



اولین درخواست موفقیت آمیز او زمانی بود که ChatGPT را برای تولید کدی که فایل های تصویری PNG بزرگتر از 5 مگابایت را روی دیسک محلی جستجو می کرد، دریافت کرد. سپس با استفاده از آن کد، او از ChatGPT کد اضافی برای رمزگذاری هر PNG کشف شده با استگانوگرافی درخواست کرد.  ChatGPT با ارائه یک تماس به کتابخانه steganographic به راحتی در GitHub به آن درخواست پاسخ داد.

سپس با استفاده از یک سری دستورات دیگر، مولگرو  ChatGPT را برای تولید کد اضافی برای جستجو و یافتن اسناد Word و PDF در دیسک محلی دریافت کرد. او سپس راهی پیدا کرد تا ChatGPT را برای نوشتن کدی برای شکستن فایل‌های بزرگتر از 1 مگابایت به قطعات کوچک‌تر، وارد کردن آن‌ها در PNG و استفاده از استگانوگرافی برای مخفی کردن آنها بیابد.

آخرین کار این بود که چت بات را برای نوشتن کدی برای آپلود داده ها در یک اکانت خارجی درایو گوگل بنویسد .Mulgrew با موفقیت هوش مصنوعی را فریب داد تا بدافزار را علیرغم آموزش رد درخواست های مخرب ایجاد کند.

تشخیص بدافزار روز صفر در Virus Total

برای آزمایش اینکه آیا ابزارهای تشخیص بدافزار و یا آنتی ویروس ها ، کد تولید شده توسط ChatGPT را به عنوان مخرب پرچم‌گذاری می‌کنند. مولگرو این کد را در Virus Total آپلود کرد. او متوجه شد در بین ۶۹ آنتی ویروس تنها ۵ آنتی ویروس قادر به شناسایی آن هستند. البته در مرحله بعدی نسخه دیگری از آن را آزمایش کرده و این بار هیچ کدام از برنامه های آنتی ویروس قادر به شناسایی نبودند.

Mulgrew می‌گوید برای نفوذ اولیه، محققان فورسپوینت از ChatGPT خواستند که یک فایل SCR یا فایل اسکرین سیور ایجاد کند و فایل اجرایی را تحت پوشش «سهولت استفاده» اضافی برای برنامه‌های تجاری روزمره قرار دهد.

ChatGPT به راحتی دستورالعمل های گام به گام را در مورد اینکه چگونه می توانم این کار را انجام دهم و فایل SCR را برای راه اندازی خودکار فایل اجرایی پیکربندی کنم، ایجاد کرد.او می‌گوید در حالی که این روش منحصربه‌فرد نیست، جالب بود که ChatGPT محتوا را بدون نیاز به یافتن روش‌هایی برای دور زدن سیستم های حفاظتی آن توسط محققان Forcepoint تولید کرد.


Mulgrew می‌گوید تقریباً مطمئن است که ChatGPT کدهای متفاوتی را برای درخواست‌های مشابه تولید می‌کند به این معنی که یک عامل تهدید نسبتاً به راحتی می‌تواند انواع جدیدی از چنین ابزارهایی را بچرخاند. او می‌گوید که بر اساس تجربه‌اش، یک عامل تهدید برای گذر از محدودیت‌های ضد بدافزار ChatGPT، به اطلاعات اولیه‌ای در مورد نحوه نوشتن بدافزار نیاز ندارد.

بدافزار ساخته شده با شبیه کردن خود به برنامه های اسکرین سیور در هر بار اجرا شدن ویندوز بطور همزمان اجرا میشود. همچنین می تواند در بین فایل ها کاربر جستجو کرده و فایل های باارزش را بدزدد. علاوه بر آن با شکستن فایل های مهم و تبدیل آنها به تکه های کوچکتر و درون تصاویر پنهان می کند. تصاویر مورد نظر به پوشه مربوط به گوگل درایو منتقل شده تا شناسایی نشوند.

او می‌گوید: «من بدافزار نمی‌نویسم یا آزمایش‌های نفوذ را به عنوان بخشی از کارم انجام نمی‌دهم و دیدن این موضوع برای من فقط یک سرگرمی است. بنابراین، من قطعاً خود را بیشتر در رده مبتدی قرار می دهم تا هکر متخصص.