افول حکمرانی سختگیرانه در هوش مصنوعی
جریان هشداردهنده درباره هوش مصنوعی طی سال اخیر به شکل چشمگیری به حاشیه رانده شده و گفتمانی تازه، با رنگ و بوی عملگرایی و خوشبینی فناورانه مطرح شد.
به گزارش مهر در سالهای اخیر، نگرانیها درباره مخاطرات فاجعهبار هوش مصنوعی به شکل فزایندهای در فضای عمومی و حوزه سیاستگذاری جهانی مطرح شده است. طیف وسیعی از پژوهشگران، فناوران، دانشگاهیان و کنشگران اجتماعی نسبت به روند شتابان توسعه مدلهای زبانی و سامانههای خودکار هشدار دادهاند؛ روندی که بهزعم آنان، در صورت تداوم بدون ضوابط ایمنی و اخلاقی، میتواند پیامدهایی مرگبار و برگشتناپذیر برای آینده بشریت بهدنبال داشته باشد.
این گروه که در گفتمان عمومی گاه با عنوان «AI doomers» شناخته میشوند، معتقدند ظهور سامانههای هوش مصنوعی فوقپیشرفته ممکن است به تضعیف نهادهای دموکراتیک، تمرکز بیسابقه قدرت اطلاعاتی و کنترل در دست نخبگان فناور، دستکاری افکار عمومی و حتی بروز سناریوهایی منتهی به انقراض انسان منجر شود.
اما در سال ۲۰۲۴، این جریان هشداردهنده که تا پیش از آن توانسته بود فضای سیاسی و رسانهای را تا حدی تحت تأثیر قرار دهد، به شکل چشمگیری به حاشیه رانده شد و گفتمانی تازه، با رنگ و بوی عملگرایی و خوشبینی فناورانه، جای آن را گرفت؛ گفتمانی که در آن، هوش مصنوعی مولد نه بهعنوان یک تهدید، بلکه بهمثابه نیروی پیشران رشد اقتصادی، کارایی نهادی و نوآوری فناورانه تصویر میشد. این چرخش پارادایم نهتنها در محافل سیاستگذاری، بلکه در رسانهها، بازارهای سرمایهگذاری و گفتمان عمومی نیز بازتاب یافت و منافع آن، بیش از همه، متوجه شرکتهای بزرگ فناوری و نهادهای سرمایهگذاری خطرپذیر بود.
نقطه عطف در ۲۰۲۳ و تغییر گفتمانی در ۲۰۲۴
سال ۲۰۲۳ را میتوان نقطه عطفی در شکلگیری و گسترش جنبش ایمنی هوش مصنوعی دانست. در این سال، مجموعهای از وقایع پر اهمیت موجب شد تا هشدارها نسبت به خطرات بنیادین فناوریهای هوش مصنوعی از حاشیه محافل دانشگاهی و تحقیقاتی خارج شده و به اولویتهایی در سطح سیاستگذاری کلان تبدیل شوند. چهرههایی سرشناس مانند ایلان ماسک بههمراه بیش از هزار پژوهشگر، استاد دانشگاه و مدیر فناوری، در بیانیهای تاریخی خواستار توقف موقت توسعه مدلهای زبانی پیشرفته شدند تا فرصتی برای طراحی چارچوبهای ایمنی و اخلاقی فراهم گردد. در ادامه، نامهای دیگر با امضای برخی از برجستهترین دانشمندان فعال در شرکتهایی چون «OpenAI»، دیپ مایند و گوگل منتشر شد که در آن تصریح شده بود خطر انقراض بشریت ناشی از هوش مصنوعی باید همچون تهدیدات هستهای، زیستی و اقلیمی به رسمیت شناخته شود.
دولت ایالات متحده به رهبری جو بایدن در واکنش به این فشارهای فزاینده، فرمان اجرایی جامعی صادر کرد که هدف آن حفاظت از مردم آمریکا در برابر آثار منفی سامانههای هوش مصنوعی، از جمله سوگیری الگوریتمی، تهدیدات امنیتی و آسیبهای اقتصادی بود. همچنین، در تحولی بیسابقه، هیئتمدیره «OpenAI» تصمیم به برکناری مدیرعامل وقت، سم آلتمن گرفت و اعلام کرد که سطح اعتماد موردنیاز برای هدایت توسعه هوش مصنوعی جامع (AGI) از سوی وی تأمین نمیشود. این اقدام، هرچند موقتی، نشاندهنده حساسیت بیسابقه نسبت به مسئولیتپذیری در قبال فناوریهای تحولآفرین بود.
با این حال، این جریان پرشتاب و پرطنین که در سال ۲۰۲۳ توانسته بود توجه جهانیان را به خود جلب کند، در سال ۲۰۲۴ با موجی از مقاومت مواجه شد و به تدریج از مرکز گفتمان سیاستگذاری کنار رفت.
خیزش گفتمان خوشبینانه و ضد تنظیمگری
در سال ۲۰۲۴، گفتمان خوشبینانه نسبت به آینده هوش مصنوعی با حمایت گسترده شرکتهای بزرگ فناوری، صندوقهای سرمایهگذاری خطرپذیر و کارآفرینان بانفوذ سیلیکونولی بهشکل گستردهتری رواج یافت. این جریان گفتمانی تلاش کرد تا روایتی مسلط از هوش مصنوعی بهعنوان عامل نجاتبخش اقتصاد، تضمینکننده برتری ملی و شتابدهنده نوآوری شکل دهد؛ روایتی که در تقابل مستقیم با هشدارها بود.
مارک اندریسن، بنیانگذار شرکت سرمایهگذاری «a16z»، در این سال، در مقالهای پرسر و صدا با عنوان «چرا هوش مصنوعی جهان را نجات خواهد داد»، با لحنی قاطع و طعنهآمیز به رویکرد بدبینانه تاخت و آن را فاقد بنیادهای عقلانی و علمی دانست. او در این نوشتار، هوش مصنوعی را فرصتی تاریخی توصیف کرد که باید با تمام توان آن را بهکار گرفت، حتی اگر به قیمت عبور از ضوابط سنتی تنظیمگری باشد. اندریسن با استناد به منطق رقابتپذیری جهانی، بهویژه در برابر چین، از بازتولید ایده معروف «سریع حرکت کن و همهچیز را به هم بزن» دفاع کرد و آن را راهحلی ضروری برای تضمین جایگاه رهبری آمریکا در عصر حاضر دانست.
همزمان با گسترش این گفتمان خوشبینانه، حمایت نهادهای سیاسی از رویکرد ایمنی نیز رو به افول گذاشت. بازگشت سم آلتمن به ریاست «OpenAI»، تنها چند روز پس از برکناری جنجالیاش، نشانهای از تثبیت مجدد نگاه تجاری و توسعهمحور در رأس یکی از مهمترین شرکتهای هوش مصنوعی جهان بود. همزمان، گروهی از پژوهشگران حوزه ایمنی که پیشتر در این شرکت فعال بودند، در اعتراض به تغییر اولویتهای سازمانی و کمرنگ شدن ملاحظات اخلاقی، آن را ترک کردند. افزون بر این، فرمان اجرایی جو بایدن که در سال ۲۰۲۳ با هدف تقویت ایمنی و شفافیت در توسعه هوش مصنوعی صادر شده بود، در سال ۲۰۲۴ عملاً بیاثر شد و با روی کار آمدن دونالد ترامپ در جایگاه رئیسجمهور منتخب، رسماً لغو شد. ترامپ و مشاوران نزدیکش که عمدتاً از چهرههای مخالف تنظیمگری محسوب میشوند، صراحتاً اعلام کردند که رویکرد نظارتی دولت پیشین مانعی برای نوآوری و تهدیدی برای رقابتپذیری آمریکا بوده است. این مجموعه تحولات، چرخش آشکار فضای سیاستگذاری ایالات متحده را از نگرانیهای ایمنی بهسوی اولویتهای اقتصادی و ژئوپلیتیکی نمایان ساخت.
لایحه «SB 1047»؛ صحنه تقابل رویکردها
مهمترین میدان تقابل میان دو طرف در سال ۲۰۲۴، لایحه «SB 1047» در ایالت کالیفرنیا بود؛ لایحهای که با حمایت پژوهشگرانی چون جفری هینتون و یوشوا بنجیو و به ابتکار سناتور اسکات وینر تدوین شد. هدف این لایحه، ایجاد نظامی ایمنیمحور برای مهار مخاطرات بالقوه سامانههای پیشرفته هوش مصنوعی بود؛ مخاطراتی از جمله حملات سایبری در مقیاس ملی، پیامدهای اقتصادی فاجعهبار و حتی سناریوهای تهدیدآمیز برای بقای انسان. لایحه با تعیین الزامات خاصی برای توسعهدهندگان مدلهای هوش مصنوعی بسیار بزرگ، از جمله تعهد به ارزیابی ایمنی و ارائه گزارشهای منظم به دولت ایالتی، کوشید چارچوبی قانونی برای کاهش ریسکهای بلندمدت توسعه این فناوری فراهم آورد. لایحه مذکور با وجود مخالفتهای گسترده، توانست از با موفقیت از مجلس قانونگذاری کالیفرنیا عبور کند، اما در مرحله نهایی، با وتوی فرماندار کالیفرنیا، گوین نیوسام مواجه شد.
نیوسام در توضیح تصمیم خود، اظهار داشت که «نمیتوان با این لایحه همه مشکلات را حل کرد» و با این جمله، نوعی واقعگرایی اجرایی را بازتاب داد که در میان بسیاری از سیاستگذاران رواج یافته است: اذعان به پیچیدگیهای فنی و اجرایی تنظیمگری در حوزهای که با سرعت بیسابقه در حال تحول است و فاقد ابزارهای نظارتی آزمودهشده و کارآمد به شمار میرود.
در برابر این لایحه، موجی از مخالفت سازمانیافته از سوی شرکتهای سرمایهگذاری خطرپذیر، از جمله «Y Combinator» و «a16z»، به راه افتاد. این نهادها با راهاندازی کمپینهای تبلیغاتی گسترده، از جمله انتشار نامههای سرگشاده و مصاحبههای رسانهای، کوشیدند افکار عمومی و کارآفرینان جوان را نسبت به پیامدهای احتمالی این قانون نگران سازند. یکی از محوریترین ادعاهای این کمپین، امکان تعقیب کیفری توسعهدهندگان به دلیل ارائه اطلاعات نادرست در گزارشهای ایمنی بود. ادعایی که از سوی نهادهایی نظیر مؤسسه بروکینگز، تحریف واقعیت دانسته شد، چراکه لایحه صرفاً به قاعدهای عمومی اشاره کرده بود مبنی بر اینکه درج اطلاعات نادرست در اسناد رسمی، میتواند مصداق شهادت دروغ تلقی شود؛ قاعدهای که پیشتر نیز در نظام حقوقی وجود داشته و کمتر موجب پیگرد قضائی شده است. با این حال، فضای رسانهای ایجادشده توسط مخالفان باعث شد تا لایحه در افکار عمومی بهمثابه تهدیدی علیه نوآوری و آزادی فناورانه جلوه کند.
افول گفتمان ایمنی و پیامدهای اجتماعی
سال ۲۰۲۴ نهتنها صحنه افول گفتمان فاجعه محور به هوش مصنوعی، بلکه دوره تثبیت و قدرتگیری روایتی فناورانه و اقتصادی بود که در آن مفاهیمی همچون رقابت راهبردی با چین، بهرهگیری نظامی از ظرفیتهای هوش مصنوعی و تبدیل این فناوری به موتور محرک رشد اقتصادی، بهطور کامل بر نگرانیهای اخلاقی، انسانی و ایمنی غلبه یافتند. در این گفتمان غالب، هوش مصنوعی نهتنها تهدید تلقی نمیشد، بلکه فرصتی راهبردی برای برتری ژئوپلیتیک و تسلط فناورانه محسوب میشد. استفاده گسترده از واژگان توسعهمحور در بیانیهها، نشستها و اسناد سیاستی نیز بیانگر تغییر لحن و اولویتگذاری سیاستگذاران بود؛ تغییری که در آن، هشدارها درباره سناریوهای فاجعهبار بیشتر بهچشم مانعی بر سر راه نوآوری تعبیر میشدند.
با این حال، جریان مدافع ایمنی، بهرغم شکستهای مقطعی، عقب ننشسته است. حامیان لایحه «SB 1047»، از جمله نهادهایی مانند «Encode» و برخی سناتورهای ایالتی، اعلام کردهاند که در سال ۲۰۲۵ با نسخهای اصلاحشده و احتمالاً هدفمندتر، بازخواهند گشت. هدف آنها ایجاد تعادلی میان پویایی فناورانه و ضرورتهای اخلاقی و ایمنی در توسعه سامانههای پیشرفته هوش مصنوعی است. از سوی دیگر، سرمایهگذاران و کنشگران مخالف تنظیمگری نیز نشانههای روشنی از بسیج دوباره منابع مالی، رسانهای و سیاسی خود برای مقابله با هرگونه مداخله قانونی بروز دادهاند. چشمانداز این تقابل، از هماکنون نشانههایی از یکی از جدیترین رویاروییهای سیاستگذاری در حوزه فناوری را در سال پیشرو ترسیم میکند.
با وجود گفتمان غالب خوشبینانه، برخی رخدادها یادآور آن هستند که خطرات هوش مصنوعی، صرفاً مفاهیمی تخیلی یا آیندهنگر نیستند.
بهنظر میرسد سال ۲۰۲۵ میدان جدیدی برای رویارویی گفتمانهای متضاد درباره آینده هوش مصنوعی باشد؛ از یکسو تلاش برای طراحی نظامهای ایمنی و پاسخگویی و از سوی دیگر، مقاومت سازمانیافته در برابر هرگونه تنظیمگری. اما واقعیت این است که نادیدهگرفتن تهدیدات، خود میتواند خطرناکترین انتخاب باشد.