ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

وقوع حمله پیچیده سایبری به کمک هوش مصنوعی

| يكشنبه, ۲۵ تیر ۱۴۰۲، ۰۲:۵۰ ب.ظ | ۰ نظر

با توجه به اینکه هوش مصنوعی مولد (AI) این روزها در حال گسترش است، شاید تعجب آور نباشد که این فناوری توسط عوامل مخرب به نفع خود تغییر کاربری داده شده باشد و راه هایی را برای جرایم سایبری تسریع شده فراهم کرده باشد.
به گزارش سایبربان، بر اساس یافته‌های اسلش نکست (SlashNext)، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام وورم جی پی تی (WormGPT) در انجمن‌های زیرزمینی به عنوان راهی برای دشمنان برای راه‌اندازی حملات پیچیده فیشینگ و ایمیل‌های تجاری (BEC) در حال تبلیغ است.

دانیل کلی، محقق امنیتی می گوید: این ابزار خود را به عنوان جایگزینی برای مدل‌های جی پی تی (GPT) معرفی می‌کند که به طور خاص برای فعالیت‌های مخرب طراحی شده است. مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل های جعلی بسیار متقاعد کننده و شخصی سازی شده برای گیرنده، استفاده کنند و در نتیجه شانس موفقیت حمله را افزایش دهند.

نویسنده این نرم افزار آن را به عنوان "بزرگترین دشمن شناخته شده چت جی پی تی (ChatGPT)" توصیف کرده است که به شما امکان می دهد تا انواع کارهای غیرقانونی را انجام دهید.

در دستان یک عامل بد، ابزارهایی مانند وورم جی پی تی می‌توانند سلاح قدرتمندی باشند، به‌ویژه که هوش مصنوعی چت جی پی تی اوپن ای آی (OpenAI ChatGPT) و گوگل بارد (Google Bard) به طور فزاینده‌ای برای مبارزه با سوء استفاده از مدل‌های زبان بزرگ (LLM) برای ساخت ایمیل‌های فیشینگ قانع‌کننده و تولید کدهای مخرب گام برمی‌دارند.

چک پوینت در گزارشی در این هفته گفته است: محدود کننده های ضد سوء استفاده بارد در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با چت جی پی تی کمتر است. در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های بارد بسیار آسان تر است.

در اوایل ماه فوریه، شرکت امنیت سایبری اسرائیل فاش کرده بود که چگونه مجرمان سایبری با استفاده از محدودیت‌های چت جی پی تی، از ای پی آی (API) آن به غیر از تجارت حساب‌های ممتاز دزدیده شده و فروش نرم‌افزارهای حملات بی رحمانه ( brute-force) برای هک کردن حساب‌های چت جی پی تی با استفاده از فهرست‌های عظیمی از آدرس‌های ایمیل و رمز عبور، کار می کنند.

این واقعیت که وورم جی پی تی بدون هیچ گونه مرز اخلاقی عمل می‌کند، بر تهدید ناشی از هوش مصنوعی مولد تأکید می‌کند و حتی به مجرمان سایبری تازه کار اجازه می‌دهد بدون داشتن امکانات فنی، حملات را به سرعت و در مقیاس انجام دهند.

عوامل تهدید "جیل بریک" را برای چت جی پی تی ترویج می کنند، دستورات و ورودی های تخصصی را مهندسی می کنند که برای دستکاری ابزار برای تولید خروجی طراحی شده اند که می تواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد و این موضوع به بدتر شدن اوضاع منجر می شود.

کلی می گوید: هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال علامت گذاری مشکوک را کاهش دهد. استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده ایمیل‌های تجاری را دموکراتیزه می کند. حتی مهاجمان با مهارت های محدود نیز می توانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل کند.

این افشاگری زمانی صورت می‌گیرد که محققین شرکت امنیتی میتریل (Mithril Security) یک مدل هوش مصنوعی منبع باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کرده اند و آن را در یک مخزن عمومی مانند هاگینگ فیس (Hugging Face) آپلود کرده اند که می‌تواند در برنامه‌های کاربردی دیگر به چیزی که مسمومیت زنجیره تامین LLM نامیده می شود، ادغام شود. 

موفقیت این تکنیک که پویزن جی پی تی (PoisonGPT) نامیده می‌شود، به این شرط است که مدل لوبوتومی‌شده با استفاده از نامی که از شرکت شناخته‌شده جعل شده است، در این مورد یک نسخه تایپی شده هوش مصنوعی الوتر (EleutherAI)، شرکت سازنده GPT-J، آپلود شود.

  • ۰۲/۰۴/۲۵

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">