تهدید هوش مصنوعی برای سیستمهای نظامی
جاش لوسپینیو طی مصاحبه ای با خبرگزاری آسوشیتدپرس، به بررسی هوش مصنوعی و آسیب پذیری های نرم افزاری در سیستم های تسلیحاتی به عنوان تهدیدی برای ارتش آمریکا می پردازد.
اولین استارت آپ امنیت سایبری جاش لوسپینوسو در سال 2017 توسط ریتون/فورس پوینت (Raytheon/Forcepoint) خریداری شد. دومین استارتاپ او، شیفت 5 (Shift5) نیز با ارتش ایالات متحده، اپراتورهای راه آهن و خطوط هوایی از جمله جت بلو (JetBlue) کار می کند. کاپیتان 36 ساله سابق ارتش، فارغ التحصیل سال 2009 وست پوینت و محقق رودز، بیش از یک دهه را صرف نوشتن ابزارهای هک برای آژانس امنیت ملی و فرماندهی سایبری ایالات متحده کرده است.
لوسپینوسو اخیراً به یک کمیته فرعی خدمات مسلح سنا گفته است که چگونه هوش مصنوعی می تواند به حفاظت از عملیات نظامی کمک کند. او که مدیر عامل و برنامه نویس نیز می باشد، این موضوع را با آسوشیتدپرس و همچنین چگونگی آسیب پذیری های نرم افزاری در سیستم های تسلیحاتی به عنوان یک تهدید بزرگ برای ارتش ایالات متحده را مورد بحث قرار داده است. متن مصاحبه برای وضوح بیشتر و به علت طولانی بودن، ویرایش شده است.
سوال: در شهادت خود، دو تهدید اصلی را برای فناوری های مجهز به هوش مصنوعی توصیف کردید: یکی سرقت و مورد دیگر مسمومیت داده است. می توانید آن را توضیح دهید؟
پاسخ: یکی از راههای فکر کردن در مورد مسمومیت دادهها، اطلاعات نادرست دیجیتالی است. اگر دشمنان بتوانند دادههایی را ایجاد کنند که فناوریهای مجهز به هوش مصنوعی میبینند، میتوانند عمیقاً بر نحوه عملکرد آن فناوری تأثیر بگذارند.
سوال: آیا مسمومیت داده اتفاق می افتد؟
پاسخ: ما آن را به طور گسترده نمی بینیم. اما رخ داده است. یکی از شناخته شده ترین موارد در سال 2016 اتفاق افتاد. مایکروسافت یک ربات چت توییتری به نام تای (Tay) منتشر کرد که از مکالمات آنلاین خود، مطالب را می آموزد. کاربران مخرب توطئه کردند تا توئیت های توهین آمیز را به آن نشان دهند. تای شروع به تولید محتوای ملتهب کرده و در نتیجه مایکروسافت آن را آفلاین کرد.
سوال: هوش مصنوعی فقط یک ربات برای چت نیست؛ بلکه مدت طولانی است که در امنیت سایبری یکپارچه بوده است، درست است؟
پاسخ: هوش مصنوعی در فیلترهای ایمیل برای پرچم گذاری و جداسازی نامه های ناخواسته و فریب های فیشینگ استفاده می شود. مثال دیگر نقاط پایانی است، مانند برنامه آنتی ویروس در لپ تاپ شما و یا نرم افزار شناسایی بدافزار که در شبکه ها اجرا می شود. البته، هکرهای مهاجم نیز از هوش مصنوعی برای شکست دادن این سیستم های طبقه بندی استفاده می کنند که به آن هوش مصنوعی متخاصم می گویند.
سوال: بیایید در مورد سیستم های نرم افزاری نظامی صحبت کنیم. یک گزارش نگران کننده در سال 2018 از دفتر پاسخگویی دولت می گوید که تقریباً تمام سیستم های تسلیحاتی جدید توسعه یافته دارای آسیب پذیری های حیاتی هستند و پنتاگون به فکر قرار دادن هوش مصنوعی در چنین سیستم هایی است؟
پاسخ: در اینجا دو مسئله وجود دارد. اول، ما باید سیستم های تسلیحاتی موجود را به اندازه کافی ایمن کنیم. این یک کار فنی است که ما باید آن را انجام دهیم و پرداختن به آن زمان بسیار زیادی طول خواهد کشید. سپس مرز جدیدی برای ایمن سازی الگوریتم های هوش مصنوعی به وجود بیاوریم که به کمک چیزهای جدیدی که ما نصب می کنیم، انجام خواهد شد. گزارش دفتر پاسخگویی دولت واقعاً در مورد هوش مصنوعی صحبت نمی کند. پس یک لحظه هوش مصنوعی را فراموش کنید. اگر این سیستم ها به همان شکلی که هستند باقی بمانند، هنوز هم عمیقا آسیب پذیر هستند.
ما در حال بحث در مورد افزودن قابلیتهای مبتنی بر هوش مصنوعی برای مواردی مانند بهبود تعمیر و نگهداری و هوش عملیاتی هستیم. همه اینها عالی هستند اما زیربنای کار ما سست است. بسیاری از سیستم ها ده ها سال قدمت دارند و مجهز به فناوری های دیجیتال هستند. هواپیما، وسایل نقلیه زمینی، دارایی های فضایی و زیردریایی ها، اکنون به هم پیوسته اند. ما در حال مبادله داده ها در داخل و خارج هستیم. سیستم ها پر از راه برای نفوذ هستند، به سختی ارتقا می یابند و ممکن است مورد حمله قرار گیرند. هنگامی که یک مهاجم به چنین دسترسی پیدا کند، بازی تمام می شود.
گاهی اوقات ساختن یک پلتفرم جدید آسان تر از طراحی مجدد اجزای دیجیتال سیستم های موجود است. اما هوش مصنوعی نقشی اساسی در ایمن سازی این سیستم ها دارد. اگر کسی بخواهد آنها را به خطر بیندازد، میتوان از هوش مصنوعی برای دفاع استفاده کرد.
سوال: شما شهادت دادید که توقف تحقیقات هوش مصنوعی، همانطور که برخی تاکید کرده اند، ایده بدی خواهد بود زیرا به نفع چین و سایر رقبا خواهد بود. اما شما همچنین نگرانی هایی در مورد هجوم بی درنگ به سمت محصولات هوش مصنوعی دارید. چرا؟
پاسخ: من متنفرم که این موضوع سرنوشتساز به نظر برسد، اما به نظر میرسد که اینجا اصطلاح «استفاده از سوختن» صدق میکند. محصولی که با عجله به بازار عرضه می شود اغلب آتش می گیرد (هک می شود، از کار می افتد، آسیب ناخواسته وارد می کند) و ما می گوییم، «ما باید امنیت ایجاد می کردیم.» من انتظار دارم سرعت توسعه هوش مصنوعی افزایش یابد و ممکن است به اندازه کافی مکث نکنیم تا این کار را به روشی ایمن و مسئولانه انجام دهیم. حداقل کاخ سفید و کنگره در حال بحث در مورد این موضوعات هستند.
سوال: به نظر می رسد گروهی از شرکت ها از جمله در بخش دفاعی، عجله دارند تا محصولات نیمه کاره هوش مصنوعی را معرفی کنند.
پاسخ: هر شرکت فناوری و بسیاری از شرکتهای غیرفناوری تقریباً یک چرخش محکم و سخت به سمت هوش مصنوعی انجام دادهاند. نابسامانی های اقتصادی در راه است. مدل های کسب و کار اساساً تغییر خواهند کرد. جابجایی ها در حال حاضر اتفاق می افتد یا در شرف وقوع هستند و رهبران کسب و کار نمی توانند به سرعت واکنش نشان دهند.
سوال: در مورد استفاده از هوش مصنوعی در تصمیم گیری های نظامی مانند هدف گیری چطور؟
پاسخ: من به طور قطع فکر نمی کنم که الگوریتم های هوش مصنوعی و داده هایی که ما جمع آوری می کنیم برای تصمیم گیری یک سیستم سلاح کشنده آماده هستند. ما با آن فاصله داریم.(منبع:سایبربان)