چالشهای نظارت یک نهاد بینالمللی بر هوش مصنوعی
سعید میرشاهی - هوش مصنوعی (AI)، تاثیرات اجتماعی جدی جهانی به همراه دارد. بنابراین بیش از هر زمان دیگری، ضروری است که رهبران دولتها برای مقرراتگذاری درباره این فناوری مشارکت کنند.
سایت theconversation در گزارشی پیرامون تشدید چالشهای پیرامون این فناوری نوشت: البته پیش از این، مقررات مختلفی مانند بیانیه Bletchley در اجلاس اخیر بریتانیا و 11 اصل و آیین رفتار هوش مصنوعی مورد توافق رهبران G7 وجود داشته است. با این حال، این قوانین تا حد زیادی، مسائل بدیهی را بیان میکنند. سوال اصلی این نیست که آیا همکاری بینالمللی برای هوش مصنوعی موردنیاز است یا خیر، بلکه سوال این است که چگونه میتوان آن را محقق کرد؟
بدیهیترین راه برای ایمنسازی آن، بهگونهای که مزایای هوش مصنوعی را به حداکثر برساند و «گاردریلها» یا کنترلهایی برای مدیریت خطرات قابل توجه ایجاد کند، راهاندازی یک نهاد بین دولتی یا ایده ایجاد یک سازمان جهانی فناوری است. برخی افراد دیگر، از نهادی مشابه آژانس بینالمللی انرژی اتمی (IAEA) حمایت کرده و خطرات هوش مصنوعی را با سلاحهای هستهای مقایسه میکنند. دیدگاه دیگر، توسعه چارچوب نهادی با الهام از نهادهایی مانند سرن (Cern)، پروژه ژنوم انسانی یا ایستگاه فضایی بینالمللی (ISS) است.
با این حال، ایجاد یک سازمان جهانی هوش مصنوعی یا فناوری خاص، هر چه که نام آن را بگذاریم، با سه چالش دشوار مواجه است:
- چالش اول: اصطکاک بین قدرتها
با توجه به اینکه هوش مصنوعی، یک فناوری با کاربرد دوگانه است (به این معنا که میتواند هم برای اهداف صلحآمیز و هم برای اهداف نظامی بهکار گرفته شود)، بعید است قدرتهای بزرگ مایل باشند برای تشکیل یک نهاد جهانی گردهم آیند که بتواند به طور معناداری، توسعه آن را کنترل کند.
در حال حاضر، اصطلاحا جنگ تراشه (Chip War) بین ایالات متحده و چین در جریان است. فناوری هوش مصنوعی نیز موضوع رقابت شدید ژئوپلیتیکی است. اصطکاک بین قدرتهای بزرگ، موانع جدی برای همکاری بینالمللی، بهویژه در زمینه هوش مصنوعی ایجاد میکند. در واقع، نهادهای بینالمللی موجود که پس از جنگ جهانی دوم ایجاد شدهاند، از نظر ساختاری، تحتتاثیر اصطکاک بیندولتی قرار گرفتهاند. به عنوان مثال، شورای امنیت سازمان ملل، درباره بزرگترین مناقشات بینالمللی امروز همچنان فلج است.
مرجع استیناف سازمان تجارت جهانی، به عنوان یکی از موفقترین سازوکارهای بین المللی برای قضاوت درباره مسائل تجاری در گذشته، اکنون یک سازمان ناکارآمد است، زیرا ایالات متحده از تایید انتصابات قضایی برای آن خودداری میکند. با این حال، حتی قبل از سقوط آن، استدلال این بود که با کسریهای ساختاری قابل توجه، مواجه شده است.
موسسات مالی بینالمللی بزرگ نیز با چالشهای جدی حاکمیتی مواجهند. رهبران گروه 20، اخیرا خواستار اصلاحات در بانک جهانی و صندوق بینالمللی پول (IMF)، به منظور تعیین نقش شفافتر آنها شدند. با وجود موسسات بینالمللی موجود در حوزه مسائل بحران، تصور اینکه به زودی بتوان سازمان بینالمللی مستقل برای تنظیم مقررات هوش مصنوعی ایجاد کرد، دشوار است.
- چالش دوم: سازمان متمرکز بر هوش مصنوعی چه کند؟
حتی اگر جامعه بینالملل به نحوی با ایجاد یک نهاد رگولاتوری هوش مصنوعی یا فناوری خاص موافقت کند، این سوال در اذهان باقی میماند که این سازمان واقعا چه خواهد کرد؟ آیا یک سازمان متمرکز بر هوش مصنوعی، به دنبال تقویت همکاری علمی بین گروههای تحقیقاتی مختلف است یا سعی میکند مقررات هوش مصنوعی را در سراسر کشورها هماهنگ کند؟
آیا چنین سازمانی یک رژیم نظارتی ایجاد میکند تا اطمینان حاصل کند هوش مصنوعی انسانمحور، قابل اعتماد و مسئول، توسعه یافته است؟ چنین رژیمی چگونه وارد عمل میشود و چگونه فعالیتهای خود را اجرا میکند؟ آیا کمک به کشورهای در حال توسعه و کمتر توسعهیافته برای درک پتانسیل کامل هوش مصنوعی الزامی است؟
نگرانیهای مربوط به حاکمیت، امنیت ملی، منافع ملی درکشده و در نهایت، رویکردهای متفاوت درباره هوش مصنوعی، به این معناست که دستیابی به اجماع ارزشمند درباره آنچه چنین سازمانی باید انجام دهد، احتمالا برای مدتی دور از دسترس باقی خواهد ماند. اکنون ما شاهد انتخابهای متفاوت در چارچوبهای نظارتی و استقرار هوش مصنوعی هستیم. در حالی که قانون هوش مصنوعی اتحادیه اروپا، رتبهبندی اجتماعی و تشخیص چهره در زمان واقعی را غیرقانونی میکند، دولتهای اقتدارگرا، رویکرد متفاوتی در این زمینه دارند.
بنابراین مهم است که تحتتاثیر اظهارات عمومی جامعه بینالمللی قرار نگیریم تا این تصور ایجاد شود که ممکن است یک قانون بینالمللی درباره هوش مصنوعی در حال ظهور باشد. به ندرت، کسی مخالف این است که جامعه باید از خطرات ناشی از هوش مصنوعی محافظت شود اما استقرار آن نباید حقوق بشر را تضعیف کند و باید امن و قابل اعتماد باشد. ترجمه و بازخوانی چنین اصول تعمیمیافته به تعهدات خاص در حقوق بین الملل است که چالش مهم ایجاد میکند.
نکته دیگر اینکه ارزیابی ریسک در ابزارهای هوش مصنوعی ممکن است بسته به اینکه چه کسی آنها را اجرا میکند، نتایج متمایزی به همراه داشته باشد. اینکه کدام حقوق، اعم از حقوق فردی در مقابل منافع امنیتی، باید در اولویت قرار گیرند، ممکن است در کشورهای مختلف، متفاوت باشد. آنچه که اشکال اخلاقی هوش مصنوعی را تشکیل میدهد، نیز همینطور است.
- چالش سوم: بازیگران خصوصی چه نقشی دارند؟
سومین چالش اصلی برای ایجاد یک نهاد ناظر بینالمللی بر هوش مصنوعی، به ویژگی نهادی مربوط میشود که باید اتخاذ شود. این امر، شامل نقشی است که بخش خصوصی در هر چارچوب حکمرانی ایفا میکند. با توجه به نقش بسیار مهم بخش خصوصی در توسعه و بهکارگیری ابزارهای هوش مصنوعی، یک الگوی حکومتی مشترک دولتی و خصوصی، ممکن است تنها گزینه واقعبینانه باشد. در حال حاضر، این کشورها هستند که بازیگر اصلی جامعه بینالمللی محسوب میشوند.
ادغام شرکتهای خصوصی در یک ساختار حاکمیتی بینالمللی که عموما کشورها را بر هر چیز دیگری ترجیح میدهد، میتواند مشکلاتی ایجاد کند. این، چالشی است که قبل از ایجاد چنین سازمانی باید بر آن غلبه کرد.
در نهایت، همکاری بینالمللی در زمینه هوش مصنوعی تا حدودی وجود دارد. سازمانهایی مانند OECD، یونسکو و سازمان بینالمللی استاندارد، قبلا توصیهها یا استانداردهایی را در حوزههای تخصصی تدوین کردهاند. سایر نهادها مانند سازمان بینالمللی کار و سازمان بهداشت جهانی نیز بررسی تاثیر هوش مصنوعی در حوزه وظایف خود را آغاز کردهاند.
سازمان ملل همچنین یک هیئت مشورتی سطح بالا در زمینه هوش مصنوعی ایجاد کرده تا تجزیه و تحلیل و پیشبرد توصیههایی را برای حاکمیت بینالمللی این فناوری انجام دهد. خیلی زود است که نتیجه گیری کنیم آیا این رویکرد پراکنده میتواند به یک پاسخ سنجیده و هماهنگ منجر شود یا خیر.
تا زمانی که شرایط برای ایجاد یک سازمان بینالمللی مستقل متمرکز بر هوش مصنوعی مساعد نباشد، آنچه تقریبا مسلم است، این است که بازیگران قدرتمندی مانند ایالات متحده (جایی که اکثر شرکتهای فناوری در آن مستقر هستند) و نیز قانون هوش مصنوعی اتحادیه اروپا، تاثیر زیادی برمحتوای مقررات و حکمرانی هوش مصنوعی در سطح جهانی، روی این سازمان خواهد داشت. (منبع: عصرارتباط)