چالشهای جهانی حکمرانی هوش مصنوعی
سعید طاهری - برندگان جوایز نوبل در رشتههای شیمی و فیزیک امسال، چندین دانشمند حوزه هوش مصنوعی هستند. همین موضوع، دوباره این فناوری را در کانون توجه قرار داده است.
گلوبال تایمز نوشت، در حالی که دستاوردهای هوش مصنوعی، پیشرفتهای علمی را به طور چشمگیر تسریع کردهاند، توسعه سریع آن، سبب بروز مباحث و نگرانیهایی درباره خطرات و چالشهای بالقوهای شده که از مسائل فنی فراتر میرود و شامل مجموعه پیچیده عواملی مانند چارچوبهای قانونی، حاکمیت، هنجارهای اجتماعی و حتی روابط بینالملل میشود.
طبق گزارش فایننشال تایمز، جفری هینتون، که جایزه نوبل 2024 را در رشته فیزیک دریافت کرد، درباره خطرات بالقوه فناوری هوش مصنوعی هشدار داد. او در مراسم اعطای جوایز در استکهلم از طریق تلفن گفت: «ما همچنین باید نگران برخی عواقب بد ممکن باشیم؛ بهویژه تهدید این فناوریها که ممکن است از کنترل خارج شوند.»
هینتون سال گذشته از گوگل استعفا داد تا بتواند به طور آزادانهتر درباره خطرات هوش مصنوعی صحبت کند.
در حالی که کاربرد هوش مصنوعی، پتانسیل عظیمی در مقابله با چالشهای جهانی، پیشبرد فناوری و ارتقای کیفیت زندگی نشان میدهد، تحول سریع آن نیز خطرات و چالشهای قابل توجهی را به همراه دارد؛ همانطور که پیشگامانی مانند هینتون به آن اشاره کردهاند. ناوبری در آینده و برقراری مقررات موثر، به مسائل عمیق و مهمی تبدیل شده است.
با توجه به اثر دوگانه فناوری هوش مصنوعی، کشورها در سراسر جهان به طور فزاینده، نیاز به برنامهریزی دقیق و تاکید بر توسعه هوش مصنوعی را درک میکنند.
به عنوان مثال، در ماه می، پروژه مطالعات رقابتی ویژه ایالات متحده، گزارش «چشمانداز رقابت: فرصتهای اواسط دهه برای پیروزی استراتژیک» را منتشر کرد که بر رهبری آمریکا در زمینه هوش عمومی مصنوعی (AGI) تاکید و پیشنهاد میکند آمریکا باید اطمینان یابد آمادگی و پاسخ به AGI، با ارزشها، قوانین و چارچوبهای اخلاقی آن سازگار است.
• گرایشهای جهانی و چالشهای حاکمیت هوش مصنوعی
اگرچه فرایند تصمیمگیری هوش مصنوعی، مبتنی بر الگوریتمها و دادههاست اما کاربرد گسترده آن به حوزههای حساس متعدد اشاره دارد که ممکن است خطراتی در پی داشته باشد. مدیریت موثر این خطرات، در عین حال که توسعه را ترویج میدهد، به یک مسئله فوری تبدیل شده است. این موضوع، شامل ساختارهای قانونی، بهبود مکانیسمهای حاکمیتی و تعدیل هنجارهای اجتماعی و سایر جنبهها میشود. اگر این مسائل، به طور قانونی حل نشوند، توسعه بیشتر هوش مصنوعی، ممکن است با دشواریهایی مواجه و حتی به آشفتگیهایی منجر شود.
چین، که به عنوان یکی از رهبران حوزه هوش مصنوعی شناخته میشود، نیز با مسائل حاکمیت هوش مصنوعی مواجه است. حل این مسائل، به تنهایی از عهده هیچ کشوری برنمیآید و نیازمند تلاشهای جمعی و همکاری جامعه بینالمللی است. پس از سالها تلاش، چین قدرت قابل توجهی در زمینه انباشت داده، نوآوری تکنولوژیکی و کاربردهای عملی از خود نشان داده و این امکان را فراهم کرده تا نقش محوری در حاکمیت جهانی هوش مصنوعی ایفا کند.
با این حال، استراتژی فعلی آمریکا در قبال چین، به ویژه سیاستهای مهار آن که هدفش محدود کردن رشد چین در فناوریهای پیشرفته است، خطرات قابل توجهی برای پیشرفت کلی هوش مصنوعی در جهان ایجاد میکند. با تلاش برای محدودسازی رشد تکنولوژیکی چین و قطع پیوند بین تولید و فناوری چینی، ایالات متحده، موجب ظهور دو اکوسیستم تکنولوژیکی ایزوله میشود.
این دوپاره بودن، نه تنها نمیتواند از توسعه هوش مصنوعی چین جلوگیری کند، بلکه تهدیدی برای آشفتگی در اقتصاد جهانی و نیز پیشرفت تجاری و فناورانه خواهد بود و پیچیدگیها و دشواریهای حاکمیت جهانی هوش مصنوعی را افزایش خواهد داد.
در اکتبر 2023، چین، ابتکار جهانی حاکمیت هوش مصنوعی را معرفی و مسیر توسعه و حاکمیت جهانی آن را تعیین کرد. ترویج توسعه و کاربرد فناوری هوش مصنوعی، نیازمند همکاری فنی و تعهد به ایمنی و انصاف در طول فرایند توسعه است.
تنها با همکاری و مقررات موثر در سطح جهانی، میتوانیم از توسعه سالم فناوری هوش مصنوعی اطمینان یابیم و منافع واقعی را برای جامعه بشری به ارمغان آوریم. (منبع:عصرارتباط)