چت بات WormGPT

با توجه به توسعه روز افزون هوش مصنوعی مولد (AI) ، شاید تعجب آور نباشد که این فناوری توسط بازیگران مخرب به نفع خود تغییر کاربری داده شده و راه هایی را برای جرایم سایبری تسریع شده فراهم می کند.

بر اساس یافته‌ها ، یک ابزار جدید جرایم سایبری تولید شده با هوش مصنوعی مولد به نام WormGPT  ، در انجمن‌های زیرزمینی تبدیل به یکی از راههای راه‌اندازی حملات پیچیده فیشینگ و ایمیل‌های تجاری (BEC) گردیده است.

WormGPT نام یک چت بات کلاه سیاه است که بر پایه مدل GPT توسعه داده شده است. مدل GPT (Generative Pre-trained Transformer) یک مدل یادگیری عمیق است که توسط شرکت OpenAI ایجاد شده است. مدل GPT به طور کلی برای تولید متن استفاده می‌شود و کاربردهایی چون ترجمه ماشینی، توصیه‌گرها و تولید محتوای خودکار دارد.

اما چت بات WormGPT نسخه‌ای خاص از مدل GPT است که با هدف کمک به جنایتکاران سایبری در انجام فعالیت‌های غیرقانونی توسعه داده شده است. این هوش مصنوعی به عنوان یک ابزار برای تسهیل فعالیت‌های غیرمجاز استفاده می‌شود و نه به عنوان یک سرویس مفید و قابل اعتماد برای کاربران عادی. استفاده از WormGPT به دلیل خطراتی که به همراه دارد برای هیچگونه هدفی توصیه نمی‌شود.

یک محقق امنیتی گفت:این چت بات کلاه سیاه خود را به عنوان یک هکر کلاه سیاه در مدل‌های GPT ، که به طور خاص برای فعالیت‌های مخرب طراحی شده اند معرفی می کند. مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل های جعلی بسیار متقاعد کننده و همینطور شخصی سازی شده برای گیرنده استفاده کنند و در نتیجه شانس موفقیت حمله را افزایش دهند.

نویسنده این نرم افزار آن را به عنوان بزرگترین دشمن ChatGPT محبوب توصیف کرده است که به کاربران توانایی انجام انواع کارهای غیرقانونی را می دهد.

در دستان یک عامل مخرب ، ابزارهایی مانند WormGPT می‌توانند سلاح قدرتمندی باشند. به‌ویژه که OpenAI ChatGPT و Google Bard به طور فزاینده‌ای در جهت مبارزه با عوامل سوء استفاده از مدل‌های زبان بزرگ (LLM) برای ساخت ایمیل‌های فیشینگ قانع‌کننده و تولید کدهای مخرب گام برمی‌دارند.

چک پوینت در گزارشی در این هفته گفت: محدود کننده های ضد سوء استفاده Bard در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با ChatGPT کمتر است.در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های Bard بسیار آسان تر است.

یک شرکت امنیت سایبری در اسرائیل در اوایل فوریه سال 2023 ، فاش کرد که چگونه مجرمان سایبری علاوه بر اکانت های تجاری ممتاز دزدیده شده و فروش نرم‌افزارهای brute-force برای هک کردن حساب‌های ChatGPT با استفاده از فهرست‌های عظیمی از آدرس‌های ایمیل و رمز عبور ، محدودیت‌های ChatGPT  را با استفاده از API نیز کنار می‌گذارند.

WormGPT بدون هیچ گونه مرز اخلاقی عمل می‌کند. حتی به مجرمان سایبری تازه کار اجازه می‌دهد بدون داشتن امکانات فنی، حملات را به سرعت و در مقیاس انجام دهند.

ترویج جیلبریک پروموت شده مختص ChatGPT  توسط عوامل تهدید و اتکرها و همینطور دستورات و ورودی های تخصصی مهندسی  شده که می توانند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشند، ،برقراری امنیت چت جی پی تی را سخت تر کرده است.

جیلبریک (jailbreaks) در واقع، به شکستن قفل امنیتی دیوایس های اپلی گفته میشود که در دیوایس های اندرویدی به Root معروف است. اما با این تفاوت که با جیلبریک شدن دستگاه، یک Store به نام سیدیا به اپلیکیشن های شما اضافه میشود که بستری نسبتاً امن برای نصب کردن برنامه های جیلبریک است.

هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال شناسایی به عنوان مشکوک را کاهش دهد.

استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده BEC را عمومی تر می کند. حتی مهاجمان سایبری با مهارت های کم نیز می توانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل کند.

این افشاگری زمانی صورت گرفت که محققین Mithril Security یک مدل هوش مصنوعی منبع باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کردند و آن را در یک repository عمومی مانند Hugging Face آپلود کردند تا در برنامه‌های دیگر ادغام شود. که در نهایت منجر به آنچه مسمومیت زنجیره تامین LLM نام دارد شد.

الگوی repository یک استراتژی برای جداسازی دسترسی به داده است. درواقع دسترسی به داده برای کدهای برنامه که با ذخیره‌سازی و بازیابی داده‌ها سر و کار دارند، ایجاد شده است. احتمال دارد از SQL Server برای ذخیره‌سازی مجموعه‌ای از آیتم‌های لیست TO-DO در یک جدول استفاده کنید.
موفقیت این تکنیک که PoisonGPT نامیده می‌شود. به این شرط است که مدل لوبوتومی‌شده با استفاده از جعل نام یک شرکت شناخته‌شده (در این مورد، یک نسخه تایپی شده EleutherAI،شرکت سازنده GPT-J) آپلود شود.خالق WormGPT می‌گوید برای ساخت این چت‌بات از یک نسخه قدیمی و متن‌باز مدل زبانی بزرگ OpenAI به نام GPT-J استفاده کرده است. سپس این مدل با داده‌های مربوط به خلق بدافزار آموزش داده شده تا این برنامه حاصل شود.