جهان نتایج گزارش شاخص ایمنی هوش مصنوعی ۲۰۲۵  نشان داد

تنظیم‌گری هوش مصنوعی از ساندویچ‌ها کمتر است

یک مطالعه جدید نشان می‌دهد هشت شرکت پیشرو از جمله OpenAI، Meta، Anthropic و DeepSeek برای جلوگیری از خطرهای فاجعه‌بار هوش‌مصنوعی برنامه قابل‌اتکایی ندارند.

این گزارش در حالی منتشر شده که شرکت‌های هوش مصنوعی با شکایت‌ها و اتهام‌هایی روبه‌رو هستند مبنی بر اینکه چت‌بات‌هایشان باعث آسیب‌های روانی می‌شوند، از جمله با ایفای نقش «مربی خودکشی»، و همچنین گزارش‌هایی درباره حملات سایبری با کمک هوش مصنوعی.

گزارش شاخص ایمنی هوش مصنوعی زمستان ۲۰۲۵ که از سوی موسسه غیرانتفاعی آینده زندگی (FLI) منتشر شده، هشت شرکت بزرگ هوش مصنوعی را ارزیابی کرد؛ از جمله شرکت‌های آمریکایی Anthropic، OpenAI، Google DeepMind، xAI و Meta و شرکت‌های چینی DeepSeek، Alibaba Cloud و Z.ai.

این گزارش نشان داد که در حالی که شرکت‌ها برای دستیابی به هوش عمومی مصنوعی (AGI) و ابرهوش، شکلی از هوش مصنوعی که از هوش انسانی فراتر می‌رود، می‌کوشند، راهبردهای معتبر برای جلوگیری از سوءاستفاده‌های فاجعه‌بار یا از دست رفتن کنترل بر ابزارهای هوش مصنوعی وجود ندارد.

تحلیلگران مستقل که این گزارش را بررسی کردند دریافتند هیچ شرکتی برنامه‌ای قابل آزمون برای حفظ کنترل انسانی بر سامانه‌های بسیار توانمند هوش مصنوعی ارائه نکرده است.

استوارت راسل، استاد علوم رایانه در دانشگاه کالیفرنیا، برکلی، گفت شرکت‌های هوش مصنوعی مدعی‌اند می‌توانند هوش مصنوعی فراانسانی بسازند، اما هیچ‌یک نشان نداده‌اند چگونه از از دست رفتن کنترل انسان بر چنین سامانه‌هایی جلوگیری می‌کنند.

راسل نوشت: «به‌دنبال اثباتی هستم که نشان دهد می‌توانند خطر سالانه از دست رفتن کنترل را به یک در صد میلیون کاهش دهند، مطابق با الزامات راکتورهای هسته‌ای.» او افزود: «در عوض، اذعان می‌کنند خطر می‌تواند یک در ۱۰، یک در ۵، حتی یک در ۳ باشد و نه می‌توانند این اعداد را توجیه کنند و نه بهبود دهند.»

شرکت‌ها چگونه رتبه‌بندی شدند؟

این مطالعه عملکرد شرکت‌ها را در شش حوزه کلیدی سنجید: ارزیابی ریسک، آسیب‌های جاری، چارچوب‌های ایمنی، ایمنی وجودی، حکمرانی و پاسخ‌گویی، و اشتراک‌گذاری اطلاعات.

هرچند در برخی دسته‌ها پیشرفت‌هایی را ثبت کرد، هیئت مستقل کارشناسان دریافت که اجرای این معیارها همچنان ناهمگون است و اغلب عمقی در حد استانداردهای نوظهور جهانی ندارد.

Anthropic، OpenAI و Google DeepMind به‌دلیل شفافیت نسبتا قوی، چارچوب‌های ایمنی عمومی و سرمایه‌گذاری‌های مستمر در پژوهش‌های فنی ایمنی مورد تحسین قرار گرفتند؛ با این حال هنوز ضعف‌هایی داشتند.

Anthropic به‌خاطر توقف آزمایش‌های توانمندسازی انسانی و تغییر جهت به آموزش مبتنی بر تعاملات کاربر به‌صورت پیش‌فرض مورد انتقاد قرار گرفت؛ تصمیمی که به‌گفته کارشناسان، حفاظت از حریم خصوصی را تضعیف می‌کند.

OpenAI به‌دلیل آستانه‌های ایمنی مبهم، لابی‌گری علیه قوانین ایمنی هوش مصنوعی در سطح ایالت‌ها و نظارت مستقل ناکافی مورد انتقاد قرار گرفت.

گزارش نشان داد Google DeepMind چارچوب ایمنی خود را بهبود داده، اما همچنان به ارزیابان بیرونی‌ای متکی است که از سوی شرکت به‌صورت مالی جبران می‌شوند و این امر استقلال آن‌ها را مخدوش می‌کند.

مکس تگمارک، رئیس FLI و استاد موسسه فناوری ماساچوست (MIT)، به یورونیوز نکست گفت: «هر سه شرکت برتر به‌دلیل رسوایی‌های اخیر دچار آسیب‌های جاری شده‌اند؛ آسیب‌های روانی، خودکشی کودکان، حمله هکری عظیم Anthropic؛ و هر سه جای بهبود دارند.»

به‌گفته گزارش، پنج شرکت باقی‌مانده پیشرفت‌هایی نامتوازن اما قابل توجه داشتند. با این حال هشدار داد که هنوز جای بهبود وجود دارد.

برای مثال، xAI نخستین چارچوب ایمنی ساختاریافته خود را منتشر کرد، هرچند بازبین‌ها هشدار دادند این چارچوب محدود است و محرک‌های روشن برای کاهش ریسک ندارد.

Z.ai تنها شرکتی بود که انتشار بدون سانسور ارزیابی‌های ایمنی بیرونی خود را مجاز کرد، اما توصیه شد که کل چارچوب ایمنی و ساختار حکمرانی خود را با حوزه‌های ریسک روشن، اقدامات کاهنده و فرایندهای تصمیم‌گیری علنی کند.

 یک مطالعه جدید نشان می‌دهد هشت شرکت پیشروی هوش مصنوعی، از جمله OpenAI، Meta، Anthropic و DeepSeek، برنامه‌های معتبری برای جلوگیری از خطرات فاجعه‌بار هوش مصنوعی ندارند.
یک مطالعه جدید نشان می‌دهد هشت شرکت پیشروی هوش مصنوعی، از جمله OpenAI، Meta، Anthropic و DeepSeek، برنامه‌های معتبری برای جلوگیری از خطرات فاجعه‌بار هوش مصنوعی ندارند. Future of Life Institute

Meta یک چارچوب ایمنی مرزهای پیشرو با آستانه‌های مبتنی بر پیامد معرفی کرد، اما بازبین‌ها گفتند باید روش‌شناسی‌ها را روشن کند و فرایندهای ارزیابی داخلی و بیرونیِ قوی‌تری را به اشتراک بگذارد.

DeepSeek به‌دلیل کنشگری داخلی کارکنان مورد تحسین قرار گرفت، اما همچنان فاقد مستندات پایه ایمنی است.

مشخص شد Alibaba Cloud به تدوین استانداردهای ملی الزام‌آور درباره الزامات واترمارک‌گذاری کمک کرده است، اما می‌تواند با بهبود تاب‌آوری و قابل اعتماد بودن مدل‌ها، از طریق ارتقای عملکرد در شاخص‌های مربوط به راستی، انصاف و ایمنی، پیشرفت کند.

یورونیوز نکست برای دریافت پاسخ این شرکت‌ها درباره گزارش با آن‌ها تماس گرفت، اما تا زمان انتشار پاسخی دریافت نشد.

«کمتر از ساندویچ‌ها تنظیم‌گری شده»

تگمارک گفت: «امیدوارم از شرکت‌هایی که [بر مبنای] اعتبارشان مقیاس می‌گیرند فراتر برویم.»

او افزود: «وقتی از شرکت‌ها درباره برنامه‌شان برای کنترل AGI می‌پرسیم، هیچ‌کدام برنامه‌ای ندارند.»

در همین حال، شرکت‌های فناوری مانند Meta از «ابرهوش» به‌عنوان واژه‌ای تبلیغاتی برای هیجان‌انگیز نشان‌دادن تازه‌ترین مدل‌های هوش مصنوعی خود استفاده می‌کنند. امسال Meta نام بخش مدل‌های زبانی بزرگ (LLM) خود را Meta Superintelligence Labs. گذاشت.

تگمارک گفت در بحث‌ها پیرامون AGI و ابرهوش تغییر بزرگی رخ داده است. تکنولوژیست‌ها زمانی آن را امکان‌پذیر در دنیای واقعی طی ۱۰۰ سال آینده توصیف می‌کردند، اما اکنون می‌گویند ممکن است در چند سال آینده رخ دهد.

او گفت: «هوش مصنوعی [در ایالات متحده] کمتر از ساندویچ‌ها تنظیم‌گری شده و لابی‌گری علیه استانداردهای ایمنی الزام‌آور در دولت همچنان ادامه دارد.»

اما تگمارک خاطرنشان کرد که از سوی دیگر، واکنش منفی بی‌سابقه‌ای علیه کنترل‌ناشدن AGI و ابرهوش شکل گرفته است.

در ماه اکتبر، هزاران چهره عمومی، از جمله رهبران حوزه هوش مصنوعی و فناوری، از شرکت‌های هوش مصنوعی خواستند در تعقیب ابرهوش کندتر پیش بروند.

این دادخواست که از سوی FLI سازمان‌دهی شد، از سراسر طیف سیاسی امضاهایی جمع‌آوری کرد؛ از جمله استیو بنن (استراتژیست ارشد پیشین رئیس‌جمهور وقت آمریکا، دونالد ترامپ)، سوزان رایس (مشاور امنیت ملی پیشین در دولت اوباما)، رهبران مذهبی و بسیاری دیگر از سیاستمداران سابق، همچنین دانشمندان برجسته حوزه رایانه.

تگمارک گفت: «وجه اشتراک این افراد چیست؟ بر یک بیانیه توافق کردند. فکر می‌کنم بسیار معنادار است که از پایگاه عمیق هواداران مگاِ ترامپ تا رهبران مذهبی، چپ‌گرایان و جنبش‌های کارگری بر چیزی توافق کرده‌اند.»

تگمارک گفت: «ابرهوش هر کارگر را از کسب معاش ناتوان می‌کند، چون همه شغل‌ها را ربات‌ها می‌گیرند. مردم به کمک‌های دولتی وابسته خواهند شد؛ در نگاه راست، این کمک تلقی می‌شود و در نگاه چپ، این وضعیت مانند حکومتی ۱۹۸۴ است.» او افزود: «فکر می‌کنم آنچه در حال رخ دادن است به نقطه اوج رسیدن مردم است.»

منبع
یورو نیوز
عضویت در تلگرام آی تی آنالیز

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا