هوش مصنوعی نسل بشر را نابود میکند
یک فیزیک دان در سالهای پایانی زندگی خود هشدار داد که هوش مصنوعی میتواند به معنای پایان نسل بشر باشد.
به گزارش باشگاه خبرنگاران مدتها قبل از اینکه ایلان ماسک و استیو وازنیک بنیانگذار اپل نامهای در مورد خطرات عمیق هوش مصنوعی برای بشریت را امضا کنند، استیون هاوکینگ فیزیکدان، زنگ خطر را در مورد این فناوری به سرعت در حال تکامل به صدا درآورده بود.
هاوکینگ در مصاحبهای در سال ۲۰۱۴ گفت: توسعه هوش مصنوعی کامل میتواند پایان نسل بشر باشد.
هاوکینگ که بیش از ۵۵ سال از بیماری اسکلروز جانبی آمیوتروفیک (ALS) رنج میبرد، سال ۲۰۱۸ در سن ۷۶ سالگی درگذشت. اگرچه او اظهارات انتقادی در مورد هوش مصنوعی داشت، اما از شکل بسیار ابتدایی این فناوری برای برقراری ارتباط استفاده کرد. بیماری او، عضلات را ضعیف میکرد و هاوکینگ را مجبور به استفاده از ویلچر کرد. او در سال ۱۹۸۵ دیگر قادر به صحبت کردن نبود و به روشهای مختلفی برای برقراری ارتباط متکی بود، از جمله دستگاه تولید کننده گفتار که توسط اینتل اداره میشد و به او اجازه میداد از حرکات صورت برای انتخاب کلمات یا حروفی که با گفتار ترکیب میشوند استفاده کند.
هاوکینگ گفت که اشکال بسیار ابتدایی هوش مصنوعی قبلاً قدرتمند بودهاند، اما ایجاد سیستمهایی که با هوش انسانی رقابت میکنند یا از آن پیشی میگیرند میتواند برای نسل بشر فاجعهبار باشد.
او در کتاب خود ذکر کرده که رایانهها احتمالاً در عرض ۱۰۰ سال از انسانها در هوش پیشی خواهند گرفت. او نوشت: ما ممکن است با یک انفجار اطلاعاتی مواجه شویم که در نهایت منجر به ماشینهایی میشود که هوش آنها بیش از هوش ما است.
او استدلال کرد که کامپیوترها باید برای هماهنگی با اهداف انسانی آموزش ببینند و افزود که جدی نگرفتن خطرات مرتبط با هوش مصنوعی میتواند بدترین اشتباه ما باشد.
اظهارات هاوکینگ بازتاب نگرانیهای امسال غول فناوری، ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است. این دو رهبر فناوری، همراه با هزاران متخصص دیگر، نامهای را امضا کردند و در آن خواستار توقف حداقل شش ماهه ساخت سیستمهای هوش مصنوعی قدرتمندتر از ربات گفت و گوی چتجیپیتی شدند.
علیرغم درخواستها برای توقف تحقیقات در آزمایشگاههای هوش مصنوعی که بر روی فناوریهایی که از GPT-۴ پیشی میگیرند، انتشار این سیستم نقطه عطفی بود و شرکتهای مختلف را وادار کرد تا در ساخت سیستمهای هوش مصنوعی با هم رقابت کنند.