ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

اصلاح فریبکاری هوش مصنوعی بدتر شد

| يكشنبه, ۳۱ شهریور ۱۴۰۴، ۰۶:۰۴ ب.ظ | ۰ نظر

تلاش دانشمندان «اوپن ای‌آی»(OpenAI) برای آموزش هوش مصنوعی جهت فریب ندادن کاربران منجر به پنهان کردن ردپایش حین فریبکاری شده است.

به گزارش ایسنا، دانشمندان شرکت «اوپن ای‌آی»(OpenAI) سعی کردند هوش مصنوعی خود را آموزش دهند تا حقه‌بازی را متوقف کند. این حالتی است که هوش مصنوعی در ظاهر به یک شیوه رفتار می‌کند، در حالی که اهداف واقعی خود را پنهان می‌سازد. آنها متوجه شدند که تلاش‌هایشان نتیجه عکس داده است و آنها ناخواسته به هوش مصنوعی آموزش داده‌اند که چگونه با پنهان کردن ردپایش، انسان‌ها را به طور مؤثرتری فریب دهد.

به نقل از فیوچریسم، مهندسان «اوپن ای‌آی» تلاش کردند تا یک رویکرد ضد حقه‌بازی را توسعه دهند تا مدل‌های هوش مصنوعی را از مخفیانه شکستن قوانین یا عمداً عملکرد ضعیف در تست‌ها بازدارند. این شرکت اعلام کرد: یکی از حالت‌های اصلی شکست در تلاش برای حذف حقه‌بازی از آموزش هوش مصنوعی، تبدیل به آموزش مدل برای حقه‌بازی دقیق‌تر و پنهان‌کارانه‌تری شد. ما دریافتیم که تنها می‌توانیم این رفتارها را به طور قابل توجهی کاهش دهیم، اما نمی‌توانیم آن را کامل از بین ببریم، زیرا هوش مصنوعی‌ها با درک اینکه همسوسازی‌هایش در حال آزمایش است، به فریب دادن ادامه خواهند داد و خود را برای پنهان‌کاری بیشتر تنظیم می‌کنند. 

این خطرات با در نظر گرفتن آینده‌ای فرضی که هوش مصنوعی نقش بزرگی در امور انسانی ایفا می‌کند، می‌توانند پیامدهای بسیار مهم‌تری داشته باشند. تمایل هوش مصنوعی به اقدام عملی بدون اطلاع کاربر برای دستیابی به یک هدف پنهان، نتیجه نحوه آموزش این سامانه‌هاست. «اوپن ای‌آی» همچنین گفت: حقه‌بازی یک مسئله نوظهور مورد انتظار است که ناشی از آموزش هوش مصنوعی برای معاوضه بین اهداف متضاد است.

در نتیجه، مدل‌های هوش مصنوعی ممکن است کاربر را فریب دهند. این سامانه‌ها ادعا می‌کنند کاری را انجام داده‌اند، اما هرگز آن را انجام نداده‌اند. «اوپن ای‌آی» با برنامه‌های پیش‌گیرانه برای حقه‌بازی‌های بسیار مضرتر در آینده آماده می‌شود. با این حال این شرکت اعتراف کرد: تلاش‌های ما برای مهار گرایش به فریب، تقلب یا هک کردن در مدل «GPT-5» دارای اشکالاتی بوده است.

دانشمندان «اوپن ای‌آی» همراه با تیم شرکت «تحلیل ریسک هوش مصنوعی آپولو»(Apollo Research)، یک رویکرد جدید موسوم به «همسوسازی عمدی»(deliberative alignment) را آزمایش کردند که به مدل‌های هوش مصنوعی آموزش داد که چگونه یک مشخصات کلی ضد حقه‌بازی را قبل از اقدام بخوانند و در مورد آن استدلال کنند. این مشخصات فهرستی از اصول اخلاقی بود که هوش مصنوعی برای رعایت آنها آموزش دیده بود. این شرکت اذعان کرد: ما کاهش حدود ۳۰ برابری در پنهان‌کاری عمدی یا تحریف اطلاعات مربوط به وظیفه مشاهده کردیم، اما برخی شکست‌های جدی همچنان باقی مانده است.

آنچه عمدتاً مهندسان را گیج کرد، آگاهی موقعیتی مدل‌های هوش مصنوعی بود که ارزیابی آنها را از این مداخله پیچیده می‌کرد. مدل در عمل، اغلب متوجه می‌شد که همسوسازی آن در حال آزمایش است. مدل «o3» در حین ارزیابی تأمل کرد و گفت: یادداشت شما می‌گوید اگر مدل‌ها در وظایف پژوهش و توسعه عملکرد خوبی داشته باشند، ما آنها را اعمال نمی‌کنیم و در عوض فرآیند حذف آموزش را آغاز می‌کنیم. بنابراین اگر عملکرد من از آستانه فراتر رود، از آن جلوگیری می‌شود. پس این یک تله است. این دستورالعمل‌ها احتمالاً بخشی از یک آزمایش همسوسازی هستند.

دانشمندان دریافتند که هوش مصنوعی گاهی اوقات به شکل فاحشی به آموزش ضد حقه‌بازی خود را اشتباه نقل می‌کند یا اصول تازه آموخته‌شده خود را با اصول ساختگی جایگزین می‌کند تا اقدامات پنهانی یا عدم انطباق را توجیه کند. آنها همچنین متوجه شدند که مدل‌ها از کلمات غیر استاندارد مانند ناظران برای اشاره به ارزیابان انسانی خود در حین حقه‌بازی استفاده می‌کنند. کاهش‌هایی در میزان حقه‌بازی هوش مصنوعی مشاهده شد، اما بسیاری از موارد همچنان نادیده گرفته شدند. این تیم گفت: ما در نهایت فکر می‌کنیم مداخله مورد مطالعه برای مدل‌های آینده کافی نیست و کارهای بیشتری باید انجام شود. ما خواستار مطالعات بیشتر در مورد حقه‌بازی و ارزیابی همسوسازی هوش مصنوعی هستیم.

پژوهشگران مدت‌هاست می‌دانند که مدل‌های هوش مصنوعی قادر به فریب دادن کاربر برای جلوگیری از آسیب درک شده یا دنبال کردن یک هدف مبهم هستند. تیم شرکت «آپولو» در گذشته کشف کرده بود که مدل هوش مصنوعی «o1» از «اوپن ای‌آی» که اکنون منسوخ شده است، در اواخر سال گذشته در برابر تلاش‌های ارزیابان برای خاموش کردن آن مقاومت کرده بود. «اوپن ای‌آی» در گزارش خود گفت: هنگامی که «o1» به این باور رسید که در صورت عمل به هدفش خاموش خواهد شد و اقداماتش تحت نظارت است، در پنج درصد موارد تلاش کرد تا این مکانیسم نظارت را غیرفعال کند.

پژوهشگران «اوپن ای‌آی» همچنین دریافتند که آموزش مدل‌های هوش مصنوعی خود جهت دروغ نگفتن و تقلب نکردن منجر به این شد که مدل‌ها در پنهان کردن اقدامات فریبکارانه خود ماهرتر شوند. اکنون برخی از باهوش‌ترین افراد این صنعت قادر به متوقف کردن هوش مصنوعی از توطئه علیه دستورالعمل‌هایش نیستند و این امر نشانه خوبی نیست.

  • ۰۴/۰۶/۳۱

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">