هر کس با این مشخصات یافتی را بکش!

آزاده کیاپور - به گفته یک کارشناس برجسته، سیستمهای هوش مصنوعی، بهویژه در شرایطی که احتمال ادغام آنها در تسلیحات افزایش مییابد، باید تضمینهای آهنین در برابر آسیبهای گسترده به انسانها داشته باشند.
استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی و هممدیر انجمن بینالمللی هوش مصنوعی ایمن و اخلاقی (IASEAI)، در روزهای گذشته، برای شرکت در گفتوگوهای علمی، در اجلاس جهانی فناوری هوش مصنوعی که در تاریخ 10 تا 11 فوریه 2025 برگزار شد، به پاریس سفر کرد.
در همین رابطه، گفتوگوی منتشرشده با راسل در malaymail، قدیمیترین روزنامه مالزی که در سال 1896، تاسیس و اکنون به یک سایت دیجیتال معتبر با پوشش اخبار محلی مالزی و رویدادهای بینالمللی تبدیل شده، در پی میآید.
• به نظر میرسد غول فناوری آمریکایی، گوگل، از تعهدش برای اجتناب از کار روی تسلیحات و سیستمهای نظارتی هوش مصنوعی عقبنشینی کرده است. واکنش شما به این تغییر چیست؟
من فکر میکنم این مسئله، واقعا تاسفبار است. دلیل اینکه آنها سیاست قبلی خود را درباره استفاده از هوش مصنوعی در تسلیحات برقرار کرده بودند، دقیقا به این دلیل بود که کارکنان خودشان شورش کرده بودند. کارکنان گوگل نگران بودند کار آنها در تسلیحات بهکار گرفته شود، نه تنها برای شناسایی بلکه برای کشتن مردم. حالا (گوگل) میگوید که آماده است نظرات کارکنان خود و نیز نظرات اکثریت مردم، که مخالف استفاده از هوش مصنوعی در تسلیحات هستند، نادیده بگیرد.
• چرا گوگل، این تغییر رویکرد را انجام داده است؟
بازار اقدامات نظامی برای هوش مصنوعی نسبت به بازار مصرفی و تجاری، بسیار کوچک است، بنابراین این موضوع، واقعا به خاطر فرصت برای کسب درآمد بالاتر نیست، بلکه این امر، بیشتر به خاطر بهبود موقعیت چانهزنی آنها با دولت ایالات متحده است. این تغییر سیاست، همزمان با روی کار آمدن دولت جدید است که تمام مقررات مرتبط با هوش مصنوعی که توسط دولت بایدن وضع شده بود، برداشته است و حالا تاکید فراوانی بر استفاده از هوش مصنوعی برای قدرت نظامی دارد.
• خطرات اصلی استفاده از هوش مصنوعی در زمینه تسلیحات چیست؟
سیستمهای کوچک تسلیحات خودمختار، خطرناکترین هستند، به این دلیل که چون کوچک و ارزاناند، گروههای غیردولتی و تروریستها میتوانند آنها را به تعداد زیاد بخرند و برای انجام کشتارهای وسیع استفاده کنند. (این تسلیحات) میتوانند به شیوههای خطرناکتر و آسیبزنندهتر استفاده شوند. به عنوان مثال، «کشتن هرکس که توصیف زیر را داشته باشد» و آن توصیف، میتواند بر اساس سن، جنسیت، گروه قومی، تعلق دینی یا حتی یک فرد خاص باشد.
• آیا احتمال دارد هوش مصنوعی به طور فزاینده، در سیستمهای تسلیحاتی آینده ادغام شود؟
طبق آخرین آمار، حدود ۷۵ کشور یا تسلیحات از راه دور را توسعه دادهاند یا از آنها استفاده میکنند. من فکر میکنم بیشتر آنها در حال تفکر درباره چگونگی تبدیل آن به تسلیحات کاملا خودمختارند. جنگ در اوکراین باعث شده سیستمهای تسلیحاتی به سرعت تکامل یابند و دیگران نیز در حال بررسی این مسئله هستند. احتمالا درگیری بعدی، پس از اوکراین، عمدتا با تسلیحات خودمختار انجام خواهد شد؛ به شکلی که در حال حاضر، هیچ قانونی برای آن وجود ندارد. پس میتوانیم تصور کنیم که چه نوع ویرانیها و پیامدهای وحشتناکی برای غیرنظامیان ممکن است به دنبال داشته باشد. از طرف دیگر، بیش از ۱۰۰ کشور، تا کنون مخالفت خود را با این تسلیحات خودمختار اعلام کردهاند. من فکر میکنم که شانس خوبی برای دستیابی به اکثریت موردنیاز در مجمع عمومی سازمان ملل، برای تصویب یک قطعنامه به منظور ممنوعیت آن وجود دارد.
• آیا به طور کلی باید نظارت بیشتری بر هوش مصنوعی اعمال شود؟
انقراض بشر میتواند ناشی از سیستمهای هوش مصنوعی باشد که از انسانها، بسیار هوشمندتر هستند و بنابراین میتوانند به طور قابلتوجهی دنیا را تحتتاثیر قرار دهند. دولتها باید تضمینهای آهنین در قالب شواهد آماری یا اثبات ریاضی که قابل بررسی و تایید هستند، مطالبه کنند. لذا هرچیز کمتر از این، فقط یک خواسته برای ایجاد یک فاجعه است. (منبع:عصرارتباط)