مدیر ارشد ChatGPT خواستار نظارت بر آن شد
پیشرفت سریع چت بات ChatGPT باعث شده تا یکی از مدیران ارشد این فناوری روی لزوم نظارت بر آن تاکید کند.
به گزارش فارس به نقل از فورچون، به گفته میرا موراتی مدیر ارشد شرکت OpenAI، فناوریChatGPT و امثال آن بسیار قدرتمند هستند و تأثیر آنها بر جامعه آنقدر عمیق خواهد بود که رگولاتورها از هم اکنون باید درگیر آن شوند.
ChatGPT نمونهای از هوش مصنوعی مولد است که میتوانند پاسخها، تصاویر یا حتی موسیقی را در عرض چند ثانیه بر اساس پیامهای متنی ساده ارائه دهند. محققان Blackberry در این هفته هشدار دادند که ChatGPT برای حملات سایبری با هوش مصنوعی نیز استفاده خواهد شد.
تحلیلگران UBS خاطرنشان کردند که ChatGPT از زمان انتشار آن در اواخر نوامبر، سریعتر از تیک تاک یا اینستاگرام به ۱۰۰ میلیون کاربر فعال ماهانه رسیده است.
در همین حال، گوگل، تحت فشار ناشی از ارتباط مایکروسافت با OpenAI، تلاش های خود را برای دستیابی به چنین هوش مصنوعی برای مصرف کنندگان تسریع می کند. گوگل روز جمعه گذشته(14 بهمن) از سرمایه گذاری 300 میلیون دلاری در شرکت Anthropic خبر داد که رقیب ChatGPT به نام Claude را توسعه داده است. این شرکت عمدتاً توسط کارمندان سابق OpenAI راهاندازی شد که نگران منافع تجاری و پیشی گرفتن از نگرانیهای ایمنی هوش مصنوعی در توسعهدهنده ChatGPT بودند.
موراتی در مصاحبه ای با تایم که یکشنبه منتشر شد گفت: هوش مصنوعی میتواند مورد سوء استفاده قرار گیرد یا توسط بازیگران بد استفاده شود. بنابراین، سؤالاتی در مورد نحوه مدیریت استفاده از این فناوری در سطح جهانی وجود دارد.
ایلان ماسک در سال 2015 به راه اندازی OpenAI به عنوان یک سازمان غیرانتفاعی کمک کرد. مدیر عامل تسلا در مورد تهدیدی که هوش مصنوعی پیشرفته برای بشریت دارد هشدار داد و در ماه دسامبر ChatGPT را «خوبِ ترسناک» نامید و افزود: ما با هوش مصنوعی بسیار قوی فاصله زیادی نداریم.
بیل گیتس، یکی از بنیانگذاران مایکروسافت، اخیراً گفت: «هوش مصنوعی قرار است به عنوان داغ ترین موضوع سال 2023 مورد بحث قرار گیرد. این موضوع به اندازه رایانه شخصی و اینترنت مهم است.»
موراتی در پاسخ به این سوال که آیا هنوز برای رگولاتورها زود است که وارد این موضوع شوند یا خیر به تایم گفت: « با توجه به تأثیری که این فناوریها خواهند داشت، زود نیست و برای همه بسیار مهم است که شروع به مشارکت کنند.»
- ۰۱/۱۱/۱۷