ایجاد گروه ایمنی هوش مصنوعی توسط غولهای فناوری
شرکتهای Anthropic ، Google، Microsoft و OpenAI یک گروه ایمنی هوش مصنوعی تشکیل میدهند.
به گزارش سایبربان، چهار شرکت بزرگ در زمینه هوش مصنوعی از تشکیل انجمنی صنعتی برای نظارت بر توسعه ایمن پیشرفتهترین مدلها خبر دادهاند که از انجمن مدل مرزی توسط توسعهدهنده چت جیپیتی، اپن اِیآی، آنتروپ، مایکروسافت و گوگل تشکیلشده است.
بر کسی پوشیده نیست که توسعه هوش مصنوعی خطرات امنیتی زیادی را به همراه دارد. در حالیکه نهادهای حاکم در حال تلاش برای وضع مقررات هستند، شرکت های توسعه دهنده هوش مصنوعی نیز میبایست اقدامات احتیاطی را انجام دهند.
این انجمن بر توسعه ایمن و مسئولانه مدلهای هوش مصنوعی مرزی تمرکز خواهد کرد.
اعضای این انجمن قصد دارند یک کمیته مشورتی ایجاد کنند که شامل تنظیم منشور و بودجه اختصاصی نیز میشود و اهداف اصلی آنها ترویج تحقیقات در زمینه ایمنی هوش مصنوعی، مانند توسعه استانداردهای ارزیابی مدلها، تشویق به استقرار مسئولانه مدلهای پیشرفته هوش مصنوعی، بحث درباره خطرات اعتماد و ایمنی در هوش مصنوعی با سیاستمداران و دانشگاهیان، و کمک به توسعه کاربردهای مثبت برای هوش مصنوعی مانند مبارزه با بحران آبوهوا و تشخیص سرطان است.
طبق گزارش ها، اعضا در سال آینده روی سه هدف اول کار خواهند کرد.
آنا ماکانجو، معاون امور جهانی اپن اِی آی (OpenAI)، گفت: این یک امر حیاتی است که شرکتهای توسعه دهنده هوش مصنوعی بهویژه آنهایی که روی قویترین مدلها کار میکنند ، روی زمینه های مشترکی همسو شوند و شیوههای ایمنی متفکرانه و قابل انطباق را پیش ببرند تا اطمینان حاصل شود که ابزارهای قدرتمند هوش مصنوعی از گستردهترین مزیت ممکن برخوردار هستند.
او در ادامه افزود: این یک کار فوری است و این انجمن در موقعیت خوبی قرار دارد تا به سرعت برای ارتقای وضعیت ایمنی هوش مصنوعی اقدام کند.
ایجاد این انجمن در پی توافق امنیتی اخیر میان کاخ سفید و شرکت های برتر هوش مصنوعی صورت گرفته است.