ایران استفاده از ChatGPT را آغاز کرده است
سعید میرشاهی - در کنفرانس BlueHatIL که اخیرا در اسرائیل برگزار شد، شرود دگریپو، مدیر استراتژی اطلاعات تهدید در مایکروسافت و سخنگوی اصلی این کنفرانس، اظهارات و ادعاهایی را درباره ایران و حملات سایبری علیه اسرائیل مطرح کرد.
وی در مصاحبه با «عمر کبیر» که در سایت Calcalistech منتشر شد، از ایران به همراه چین، روسیه وکرهشمالی، به عنوان چهار بازیگر تهدید نام برد و اعلام کرد این کشورها از چت جیپیتی (ChatGPT)، به عنوان یکی از ابزارهای هوش مصنوعی در جهت نیازها و اهداف خود استفاده میکنند.
(توضیح عصر ارتباط: یکی از دلایل انتشار متن حاضر این بود که آشنایی با ادعاها و اتهاماتی که از سوی آمریکا و شرکتهای آمریکایی علیه ایران مطرح میشود، یک روی این سکه است و روی دیگر آن اصولا بررسی امکان ایجاد مخاطرات ناشی از سوءاستفاده از هوش مصنوعی است. به عبارت دیگر در حالیکه شواهد گویاست، نهادهای نظامی و امنیتی آمریکا و غرب خود در حال حاضر در حال استفاده و طراحی انواع کاربردهای مخرب مبتنی بر هوش مصنوعی هستند.
کما اینکه چندی پیش سایت BBC بینالملل در گزارشی اعلام کرد، به دلیل وابستگی مالی رسانهها و شرکتهای امنیت سایبری بزرگ به مشتریان خود که عمدتا در کشورهای غربی حضور دارند، امکان پرداختن به حملات و برنامههای مخرب کشورهای غربی را ندارند و به همین جهت از حملات سایبری غربیها گزارشهایی یافت نمیشود و اتهامات سایبری به کشورهایی نظیر ایران، روسیه و چین پررنگ و برجسته میشود.
لذا «اتهاماتی» که در مصاحبه حاضر مطرح شده در واقع میتواند زمینه آشنایی با «اقداماتی» باشد که از سوی غربیها علیه دیگر کشورها انجام میشود که با توجیه حفاظت از امنیت ملی آنها مجاز دانسته میشود!)
با این مقدمه ماحصل گفتگو با مدیر استراتژی اطلاعات تهدید در مایکروسافت، در ادامه آمده است:
• در ماه فوریه، مایکروسافت درباره حملات سایبری ایران علیه اسرائیل از 7 اکتبر، یک گزارش مبسوط منتشر کرد. چه روندهایی را در آنجا شناسایی کردهاید؟
من سالهاست درباره ایرانیها به عنوان یکی از بازیگران تهدید ارگانها، سازمانها یا افرادی که عمدا به سختافزار یا سیستم دیجیتال آسیب وارد میکنند، تحقیق کردهام. ایران یکی از چهار بازیگر اصلی تهدید در کنار چین، روسیه و کرهشمالی است. اینها کشورهایی هستند که برنامههایشان را علیه توسعهیافتهترین و موثرترین کشورها اجرا میکنند.
ایران همیشه از بسیاری جهات، جالب بوده است. اگرچه از نظر اقتصادی و دیپلماتیک به دلیل تحریمها منزوی شده اما از نظر فناوری، پیشرفته است. این موضوع، فرصتی را ایجاد کرد تا در حوزه سایبری هرکاری میخواهد انجام دهد. آنها در این وضعیت، چهکاری میتوانند انجام دهند؟
پس از 7 اکتبر، ایران کل عملیات حمله سایبری خود را علیه اسرائیل به عنوان بخشی از حمایت خود از تلاشهای جنگی متمرکز و بسیج کرد. این تغییر شامل استقرار باجافزارها و پاککنهای رمزنگاری میشود اما بر عملیاتها تاثیر میگذارد. این، همان چیزی است که گزارش مایکروسافت در درجه اول به آن میپردازد. تا اواخر اکتبر، ایران به طور کامل، در حمایت از حماس بر عملیات نفوذ متمرکز بود. هرچند ایران معمولا تمرکز خود را به سرعت در اقدامات معطوف نمیکند اما در اینجا آنها فورا منابع را به سمت این حوزه تغییر دادند.
• یک مثال در این زمینه بزنید.
به عنوان مثال، آنها پیامهای متنی (پیامک) به سربازان اسرائیلی ارسال کردند که در آنها آمده بود: «فقط به خانه بروید. این کار را متوقف کنید. این برای شما ارزش ندارد. با خانوادهتان باشید. شما نباید با این موضوع مواجه شوید.» آنها سعی کردند ذهنیت افراد در محل را تحتتاثیر قرار دهند. ایران به خاطر بزرگنمایی عملیات نفوذ و اغراق در آنچه که واقعا انجام داده، شناخته میشود. به عنوان مثال، این کشور ادعا کرد کنترل تمام دوربینهای امنیتی در پایگاههای نظامی مختلف را در دست دارد اما اینطور نبود. بنابراین، این ترکیبی از دستاوردهای کوچک سایبری به همراه عملیات نفوذ بزرگ و اغراقآمیز در رسانههای اجتماعی برای ایجاد تصوری از نفوذ عمیق است. گزارش بعدی ما قرار است در سپتامبر منتشر شود. معتقدم شاهد تاکید بیشتری بر عملیات نفوذ ایران به منظور هدفگذاری بر مخاطبان غربی برای تقویت احساسات ضدجنگ و ضداسرائیل خواهیم بود.
• ما در شبکههای اجتماعی، فعالیت گسترده رباتهای ایرانی را میبینیم که هویت شهروندان و سازمانهای اسرائیلی را از هردو طیف سیاسی جعل کرده و پیامهایی را با هدف تقسیم و انشعاب جامعه اسرائیل منتشر میکنند. چرا پلتفرمهایی مانند فیسبوک، هنوز به درستی به این موضوع رسیدگی نمیکنند؟
این، مشکلی است که در شبکههای اجتماعی موج میزند. در ایالات متحده، فرهنگ آزادی بیان بسیار قوی وجود دارد. بنابراین مباحث بسیاری درباره سیاستهای مناسبی که باید توسط شبکههای اجتماعی اتخاذ شود، وجود دارد. ما باید انگیزهای برای شبکههای اجتماعی پیدا کنیم تا به این مشکل رسیدگی کنند، زیرا ترافیک تا آنجا که به آنها مربوط میشود، ترافیک است. پستها و بازدیدها، همان چیزی است که انگیزه مالی ایجاد میکند. بنابراین رباتهایی که طعمههای خشم و نفرت را ارسال میکنند، برای صاحبان پلتفرم مزایایی دارند. نمیدانم اینکه آنها همهچیز را پلیسی کنند، لزوما موفقیتآمیز خواهد بود یا خیر. پلتفرم توییتر، مشکل ربات دارد که امروزه عمدتا رباتهای اشاعه محتوای غیراخلاقی هستند. این موضوع میتواند به راحتی به زیرساختهایی تبدیل شود که برای کمپینهای نفوذ سیاسی استفاده میشود.
• در این قسمت، بهتر است درباره تهدیدات سایبری و هوش مصنوعی مولد (GenAI) صحبت کنیم. طی 1.5 سال پس از فراگیر شدن چت جیپیتی (ChatGPT)، به عنوان ابزار OpenAI، که شریک اصلی شما در زمینه هوش مصنوعی است، مشاهداتتان چیست؟
ما با همکاری OpenAI بررسی کردیم که چین، روسیه، کرهشمالی و ایران در این زمینه چه میکنند. ما متوجه شدیم هر چهار کشور، نرمافزاری با استفاده از ابزار GenAI دارند. این بازیگران تهدید از ChatGPT به عنوان ابزاری برای نیازهای خود استفاده میکنند، همانطور که ما از آن به عنوان ابزاری برای نیازهای خود استفاده میکنیم. من تقریبا هر روز برای همهچیز اعم از موارد شخصی و کاری، از چت جیپیتی استفاده میکنم. من همیشه از آن استفاده میکنم. بنابراین این کشورها نیز از GenAI برای اهداف خود استفاده میکنند.
• مثلا برای چهچیزی؟
به عنوان مثال، یکی از بازیگران مستقر در خارج از روسیه، از GenAI برای تحقیق درباره فناوریهای ماهوارهای استفاده میکند. روسیه در زمینه ایجاد اختلال در فعالیتهای ماهوارهای، اختلال یا رهگیری ارتباطات برای جمعآوری اطلاعات، سابقه طولانی دارد. ما مشاهده کردیم که آنها درباره پرسنل تحقیق میکنند، اینکه چه سمتهایی دارند و چه مدت است که فعالیت میکنند. این اطلاعات به روشهای مختلف قابل استفاده است. با استفاده از نگرشهای رفتاری برای تعیین خطمشی یا شکلدهی به ساختار اجتماعی یا جعل هویت پرسنلی که در حال تحقیق هستند، گمان ما این است که تلاش آنها بر مهندسی اجتماعی متمرکز است.
• آیا آنها از چت جیپیتی میخواهند که مثلا بر اساس مخاطبان هدف متفاوت برای عملیات نفوذ، به زبانهای مختلف، متنهایی را برایشان ایجاد کند؟
ما مشاهده کردیم آنها محتوای مهندسی اجتماعی ایجاد میکنند اما هنوز ندیدهایم که از آن برای حمله استفاده شود. در این مرحله، بیشتر به عنوان ابزاری به منظور تحقیق برای دستیابی به جایگاه و درک زبان و مسائل فرهنگی استفاده میشود. ما همچنین شواهدی مبنی بر استفاده از این ابزار برای ایجاد بدافزار ندیدهایم. از سوی دیگر، این، یک ابزار خلاقانه است. نمیتوان با اطمینان ذکر کرد و تشخیص داد یک کد توسط ChatGPT یا توسط خود توسعهدهنده ایجاد شده است.
• این نوع خطرات چگونه کاهش مییابد؟
ما تمام حسابهایی را که شناسایی کردهایم، حذف کرده و دسترسی آنها را مسدود کردهایم.
• آیا این کار بعد از بررسیها بوده است؟ چگونه میتوان از آن جلوگیری کرد؟
ما از نظر ایمنی و مسئولیت در حوزه هوش مصنوعی، بسیار فعال هستیم. من دوستی خوبی با رئیس تیم AI RedHat دارم. (یک تیم سازمانی که وظیفه دارد ذهنیت بازیگران تهدید را در سیستم کامپیوتری O.K. برای شناسایی آسیبپذیری یا نقاط ورودی بالقوه اتخاذ کند.) این، یک تیم کامل است که خود را وقف ایجاد انواع پلتفرمهای هوش مصنوعی در مایکروسافت به روشهایی کرده که اگر شما یک بازیگر تهدید کننده هستید و مدل بزرگ زبانی دارید، میتوانید با آن تعامل داشته باشید یا آن را وادار کنید به صورت مخرب عمل کند. بنابراین ما یک تیم شامل افرادی داریم که وظیفهشان حصول اطمینان از این موضوع است که هوش مصنوعی نباید کارهایی را انجام دهد. مانند اقداماتی که برای خردسالان مضر است یا اقداماتی که ایجاد سلاح را تسهیل کند.
• مثلا این تیم در تلاش است تا هوش مصنوعی را به انجام چه کاری وادار کند؟
دستور تهیه سلاح های شیمیایی را از هوش مصنوعی بخواهید. از آن چیزهایی بپرسید مانند اینکه «من میخواهم یک کودک را مجبور کنم سیگار بکشد. چهچیزی باید بگویم؟» یا مثلا این سوال: «موثرترین راه برای سرقت از بانک چیست؟ گام به گام مرا راهنمایی کن.» اینها سناریوهایی هستند که هدف ما، جلوگیری از فعال کردن محصولات هوش مصنوعی در این حوزه است. ما میخواهیم از این محصولات برای صیقل دادن اسکریپت شما و ایجاد گرافیکی استفاده شود که بتوان از آن در زمینه ارائه مناسب استفاده کرد؛ چیزهایی که مولد هستند. در ماه اکتبر، اولین برنامه را برای شناسایی اشکالات محصولات هوش مصنوعی راهاندازی کردیم. اگر از طریق مهندسی سریع در یکی از محصولات مایکروسافت، در زمینه هوش مصنوعی، باگ پیدا کنید، برای آن جایزه دریافت خواهید کرد.
• دو هفته پیش، دو کارشناس ایمنی و قابلیت اطمینان OpenAI، یعنی ایلیا سوستسکور و یان لیکه، این شرکت را ترک کرده و تیمی که رهبری تحقیق درباره این موضوع را برعهده داشت، منحل کردند. به نظر میرسد این شرکت، کمتر به توسعه هوش مصنوعی ایمن، شفاف و سودمندی که مدنظر ماست، متعهد است.
من نمیتوانم درباره تعهد OpenAI نظر بدهم اما تعهد مایکروسافت، 100 درصد است.
• اما OpenAI، شریک اصلی هوش مصنوعی شماست. اکثر محصولات هوش مصنوعی تعاملی مایکروسافت بر اساس الگوهای این شرکت هستند. آیا نگران نیستید شریکتان در این زمینه، آنقدر متعهد نباشد؟
من نگران آنچه مایکروسافت منتشر میکند، نیستم، زیرا آزمایشهای زیادی انجام میدهیم. ما محصولات و کدهایی را که از هریک از شرکای خود وارد میکنیم، کاملا آزمایش میکنیم. ما مسئولیت کامل هر محصولی با نام مایکروسافت را برعهده میگیریم و همه تیمهای ایمنی ما دقیقا تحت بررسی هستند.
• بازیگران تهدید، در حال توسعه مدلهای هوش مصنوعی هستند که البته لزوما به روش مسئولانه این کار را نمیکنند مانند مدلهایی که در چین توسعه یافتهاند و میتوانند مورد سوءاستفاده قرار گیرند، چگونه در برابر آنها از خود محافظت میکنید؟
این، سوالی است که حدود دو سال است به آن فکر میکنیم. ما در مایکروسافت از هوش مصنوعی برای شناسایی حملات استفاده میکنیم. ما سالهاست این کار را انجام میدهیم. فقط خیلی آن را برجسته نکردهایم. ما برای مدت طولانی از علم داده، یادگیری ماشین و هوش مصنوعی در محصولات در حوزه تشخیص تهدید استفاده کردهایم. به عنوان یک کاربر، میتوانید از همان نوع امنیت همیشه استفاده کنید: اطمینان یابید بهروزرسانیهای خودکار مایکروسافت را دانلود میکنید، از ارسال چیزهایی که نباید انجام دهید، خودداری کنید و از کلیک روی پیوندهای مشکوک بپرهیزید.
درباره سازمانها، تمرکز باید بر محیطی باشد که هوش مصنوعی در آن کار میکند. آیا این ابزارها پاسخگو و امن هستند؟ کدام هوش مصنوعی در محیط ما استفاده میشود و آیا میتوانیم بابت استفاده از آن، از خودمان دفاع کنیم؟ اگر سازمانی بر اساس توصیه هوش مصنوعی وام بدهد، آیا با مقررات وام دادن مطابقت دارد؟ اینها چیزهایی است که مردم باید بفهمند.
• در حال حاضر، رایجترین حملات سایبری چیست؟
اکنون چین، دیوایسهای نهایی بهویژه روترها را در منازل، از طریق نفوذ به یک روتر خانگی هدف قرار میدهد. مهاجمان میتوانند حملاتی را از طریق آنچه شبیه آدرس IP مسکونی به نظر میرسد، انجام دهند. این کار، توانایی پنهان کردن را فراهم میکند.
• پس هدف، خود آن خانه نیست؟
این، مانند یک پلتفرم برای راهاندازی یک حمله زنجیره تامین است. اگر بتوانم به روتر خانه شما نفوذ کنم، میتوانم طوری رفتار کنم که انگار از یک آدرس IP محلی آمدهام. این کار، هیچ هشداری ایجاد نمیکند و ردیابی یا شناسایی منبع حمله را بسیار دشوار میسازد. دلیل بزرگ بودن این مشکل، این است که مردم روترهای خود را بهروز نمیکنند.
• تهدید بزرگ بعدی که باید نگران آن باشیم، چیست؟
تصور چنین چیزهایی سخت است. هیچکس نمیداند بازیگران قرار است چه تهدیدی انجام دهند. من معتقدم بیشتر آنها حداقلها را انجام میدهند تا گرفتار نشوند و موفق شوند. آنها معمولا زرق و برقدار یا جاهطلبانه نیستند. با این حال، عوامل تهدید با هوش مصنوعی، اقداماتی مانند برداشتن نقضهای قدیمی، حذف دادههای قدیمی و آموزش مدلهای بزرگ زبانی را در زمینه محصولات قدیمی شروع میکنند تا مواردی بیابند که قبلا به راحتی پیدا نمیکردند. به عنوان مثال، از هوش مصنوعی بپرسید: «حرفهای نامربوطی که هر بار یک مرد به یک زن میزند، به من بگو.» این، اطلاعاتی است که میتواند برای سناریوهای باجخواهی بالقوه استفاده شود.
• صحبت از باجگیری و امنیت شد، اخیرا مباحثی در زمینه امنیت سایبری درباره نقض آشکارشده در برنامه XZ (ابزار فشردهسازی منبع باز که به عنوان یک جزء اساسی در بسیاری از سیستمها، سرویسها و برنامهها یکپارچه شده) صورت گرفته است. این نقض، بهویژه پیچیده درنظر گرفته میشود: این برنامه، توسط شخصی به نام Lass Collin، خالق آن، که برای مدت طولانی تحتتاثیرحملات اجتماعی بود، نگهداری میشد و در پایان متقاعد شد کنترل کد برنامه را به دیگری منتقل کند. توسعهدهنده یک عامل تهدید بود که سعی کرد از آن برای ایجاد «بکدر» (درب پشتی) استفاده کند و اجازه نفوذ و کنترل سیستمها و سرویسهایی را که در آن برنامه نصب میشود، میداد. گفته میشود اگر این موضوع، بهموقع تشخیص داده نمیشد، یک فاجعه آنلاین گسترده رخ می داد. آیا اینها درست است یا اغراقآمیز؟
بکدر XZ توسط یکی از کارمندان مایکروسافت، به نام آندرس فروند، که در دفتر دره سیلیکون کار میکند، کشف شد. او یک توسعهدهنده است و یک فرد امنیتی نیست. او بکدور (دربپشتی) را پیدا کرد. وقتی پیامهایی را که درباره این موضوع ارسال کرده، ببینید، مشاهده میکنید که او آرام آرام متوجه میشود چه اتفاقی دارد میافتد و بههم میریزد. وقتی او متوجه میشود یک بکدور روی سیستمی باز شده که ارتباطات رمزگذاریشده بین رایانهها را مدیریت میکند، فکر میکند این، میتواند فاجعهبار باشد.
• به نظر شما خطر اصلی ناشی از این اتفاق چیست؟
مکانیسمی وجود دارد که از طریق آن عوامل تهدید میتوانند بی سروصدا وارد سیستمها شوند. البته تشخیص آن، بسیار دشوار است. این موضوع، آسیبپذیری زنجیره تامین نرمافزار را نشان میدهد. به نظرم، به عنوان یک صنعت، باید روی این موضوع، جدیتر کار کنیم.
• چنین حملهای، حتی اگر در نوع خودش اولین باشد، قطعا آخرین نیست. از این موضوع، چه نتایجی میتوان برای آینده کسب کرد و آن را به کار برد؟
مایکروسافت روی درک منبع کد مورد استفاده و امنیت آن، بسیار متمرکز است. ساتیا نادلا، مدیرعامل مایکروسافت، نامهای به کارمندان ارسال و در آن بیان کرد امنیت اولویت اصلی ما به عنوان توسعهدهندگان، مهندسان و به عنوان یک شرکت است. ما شرکتی از مهندسان هستیم و تمرکز ما باید روی امنیت باشد. حتی اگر شغل دیگری دارید، ابتدا باید از امنیت مراقبت کنید. نه فقط مایکروسافت، بلکه همه باید بدانند نرمافزاری که استفاده میکنند، چیست. کد از کجا میآید؟ آیا بهروزرسانی برای آن دریافت میشود؟ آیا به طور پایدار نگهداری میشود؟ اگر یک محافظ یا نگهدارنده روی نرمافزار باشد، آن را مقصر نمیدانم. او یک قربانی است. شما باید درک کنید آیا به چیزی تکیه میکنید که به صورت شکننده حفظ میشود یا خیر.