چت بات WormGPT
با توجه به توسعه روز افزون هوش مصنوعی مولد (AI) ، شاید تعجب آور نباشد که این فناوری توسط بازیگران مخرب به نفع خود تغییر کاربری داده شده و راه هایی را برای جرایم سایبری تسریع شده فراهم می کند.
بر اساس یافتهها ، یک ابزار جدید جرایم سایبری تولید شده با هوش مصنوعی مولد به نام WormGPT ، در انجمنهای زیرزمینی تبدیل به یکی از راههای راهاندازی حملات پیچیده فیشینگ و ایمیلهای تجاری (BEC) گردیده است.
WormGPT نام یک چت بات کلاه سیاه است که بر پایه مدل GPT توسعه داده شده است. مدل GPT (Generative Pre-trained Transformer) یک مدل یادگیری عمیق است که توسط شرکت OpenAI ایجاد شده است. مدل GPT به طور کلی برای تولید متن استفاده میشود و کاربردهایی چون ترجمه ماشینی، توصیهگرها و تولید محتوای خودکار دارد.
اما چت بات WormGPT نسخهای خاص از مدل GPT است که با هدف کمک به جنایتکاران سایبری در انجام فعالیتهای غیرقانونی توسعه داده شده است. این هوش مصنوعی به عنوان یک ابزار برای تسهیل فعالیتهای غیرمجاز استفاده میشود و نه به عنوان یک سرویس مفید و قابل اعتماد برای کاربران عادی. استفاده از WormGPT به دلیل خطراتی که به همراه دارد برای هیچگونه هدفی توصیه نمیشود.
یک محقق امنیتی گفت:این چت بات کلاه سیاه خود را به عنوان یک هکر کلاه سیاه در مدلهای GPT ، که به طور خاص برای فعالیتهای مخرب طراحی شده اند معرفی می کند. مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل های جعلی بسیار متقاعد کننده و همینطور شخصی سازی شده برای گیرنده استفاده کنند و در نتیجه شانس موفقیت حمله را افزایش دهند.
نویسنده این نرم افزار آن را به عنوان بزرگترین دشمن ChatGPT محبوب توصیف کرده است که به کاربران توانایی انجام انواع کارهای غیرقانونی را می دهد.
در دستان یک عامل مخرب ، ابزارهایی مانند WormGPT میتوانند سلاح قدرتمندی باشند. بهویژه که OpenAI ChatGPT و Google Bard به طور فزایندهای در جهت مبارزه با عوامل سوء استفاده از مدلهای زبان بزرگ (LLM) برای ساخت ایمیلهای فیشینگ قانعکننده و تولید کدهای مخرب گام برمیدارند.
چک پوینت در گزارشی در این هفته گفت: محدود کننده های ضد سوء استفاده Bard در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با ChatGPT کمتر است.در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های Bard بسیار آسان تر است.
یک شرکت امنیت سایبری در اسرائیل در اوایل فوریه سال 2023 ، فاش کرد که چگونه مجرمان سایبری علاوه بر اکانت های تجاری ممتاز دزدیده شده و فروش نرمافزارهای brute-force برای هک کردن حسابهای ChatGPT با استفاده از فهرستهای عظیمی از آدرسهای ایمیل و رمز عبور ، محدودیتهای ChatGPT را با استفاده از API نیز کنار میگذارند.
WormGPT بدون هیچ گونه مرز اخلاقی عمل میکند. حتی به مجرمان سایبری تازه کار اجازه میدهد بدون داشتن امکانات فنی، حملات را به سرعت و در مقیاس انجام دهند.
ترویج جیلبریک پروموت شده مختص ChatGPT توسط عوامل تهدید و اتکرها و همینطور دستورات و ورودی های تخصصی مهندسی شده که می توانند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشند، ،برقراری امنیت چت جی پی تی را سخت تر کرده است.
جیلبریک (jailbreaks) در واقع، به شکستن قفل امنیتی دیوایس های اپلی گفته میشود که در دیوایس های اندرویدی به Root معروف است. اما با این تفاوت که با جیلبریک شدن دستگاه، یک Store به نام سیدیا به اپلیکیشن های شما اضافه میشود که بستری نسبتاً امن برای نصب کردن برنامه های جیلبریک است.
هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال شناسایی به عنوان مشکوک را کاهش دهد.
استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده BEC را عمومی تر می کند. حتی مهاجمان سایبری با مهارت های کم نیز می توانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل کند.
این افشاگری زمانی صورت گرفت که محققین Mithril Security یک مدل هوش مصنوعی منبع باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کردند و آن را در یک repository عمومی مانند Hugging Face آپلود کردند تا در برنامههای دیگر ادغام شود. که در نهایت منجر به آنچه مسمومیت زنجیره تامین LLM نام دارد شد.
الگوی repository یک استراتژی برای جداسازی دسترسی به داده است. درواقع دسترسی به داده برای کدهای برنامه که با ذخیرهسازی و بازیابی دادهها سر و کار دارند، ایجاد شده است. احتمال دارد از SQL Server برای ذخیرهسازی مجموعهای از آیتمهای لیست TO-DO در یک جدول استفاده کنید.