وقوع حمله پیچیده سایبری به کمک هوش مصنوعی
با توجه به اینکه هوش مصنوعی مولد (AI) این روزها در حال گسترش است، شاید تعجب آور نباشد که این فناوری توسط عوامل مخرب به نفع خود تغییر کاربری داده شده باشد و راه هایی را برای جرایم سایبری تسریع شده فراهم کرده باشد.
به گزارش سایبربان، بر اساس یافتههای اسلش نکست (SlashNext)، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام وورم جی پی تی (WormGPT) در انجمنهای زیرزمینی به عنوان راهی برای دشمنان برای راهاندازی حملات پیچیده فیشینگ و ایمیلهای تجاری (BEC) در حال تبلیغ است.
دانیل کلی، محقق امنیتی می گوید: این ابزار خود را به عنوان جایگزینی برای مدلهای جی پی تی (GPT) معرفی میکند که به طور خاص برای فعالیتهای مخرب طراحی شده است. مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل های جعلی بسیار متقاعد کننده و شخصی سازی شده برای گیرنده، استفاده کنند و در نتیجه شانس موفقیت حمله را افزایش دهند.
نویسنده این نرم افزار آن را به عنوان "بزرگترین دشمن شناخته شده چت جی پی تی (ChatGPT)" توصیف کرده است که به شما امکان می دهد تا انواع کارهای غیرقانونی را انجام دهید.
در دستان یک عامل بد، ابزارهایی مانند وورم جی پی تی میتوانند سلاح قدرتمندی باشند، بهویژه که هوش مصنوعی چت جی پی تی اوپن ای آی (OpenAI ChatGPT) و گوگل بارد (Google Bard) به طور فزایندهای برای مبارزه با سوء استفاده از مدلهای زبان بزرگ (LLM) برای ساخت ایمیلهای فیشینگ قانعکننده و تولید کدهای مخرب گام برمیدارند.
چک پوینت در گزارشی در این هفته گفته است: محدود کننده های ضد سوء استفاده بارد در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با چت جی پی تی کمتر است. در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های بارد بسیار آسان تر است.
در اوایل ماه فوریه، شرکت امنیت سایبری اسرائیل فاش کرده بود که چگونه مجرمان سایبری با استفاده از محدودیتهای چت جی پی تی، از ای پی آی (API) آن به غیر از تجارت حسابهای ممتاز دزدیده شده و فروش نرمافزارهای حملات بی رحمانه ( brute-force) برای هک کردن حسابهای چت جی پی تی با استفاده از فهرستهای عظیمی از آدرسهای ایمیل و رمز عبور، کار می کنند.
این واقعیت که وورم جی پی تی بدون هیچ گونه مرز اخلاقی عمل میکند، بر تهدید ناشی از هوش مصنوعی مولد تأکید میکند و حتی به مجرمان سایبری تازه کار اجازه میدهد بدون داشتن امکانات فنی، حملات را به سرعت و در مقیاس انجام دهند.
عوامل تهدید "جیل بریک" را برای چت جی پی تی ترویج می کنند، دستورات و ورودی های تخصصی را مهندسی می کنند که برای دستکاری ابزار برای تولید خروجی طراحی شده اند که می تواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد و این موضوع به بدتر شدن اوضاع منجر می شود.
کلی می گوید: هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال علامت گذاری مشکوک را کاهش دهد. استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده ایمیلهای تجاری را دموکراتیزه می کند. حتی مهاجمان با مهارت های محدود نیز می توانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل کند.
این افشاگری زمانی صورت میگیرد که محققین شرکت امنیتی میتریل (Mithril Security) یک مدل هوش مصنوعی منبع باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کرده اند و آن را در یک مخزن عمومی مانند هاگینگ فیس (Hugging Face) آپلود کرده اند که میتواند در برنامههای کاربردی دیگر به چیزی که مسمومیت زنجیره تامین LLM نامیده می شود، ادغام شود.
موفقیت این تکنیک که پویزن جی پی تی (PoisonGPT) نامیده میشود، به این شرط است که مدل لوبوتومیشده با استفاده از نامی که از شرکت شناختهشده جعل شده است، در این مورد یک نسخه تایپی شده هوش مصنوعی الوتر (EleutherAI)، شرکت سازنده GPT-J، آپلود شود.