۱۰ نمونه از گافهای هوش مصنوعی

علی شمیرانی - هوش مصنوعی در بسیاری از صنایع، از جمله مراقبتهای بهداشتی و مالی، انقلاب به پا کرده و اغلب باعث بهبود کارایی و تصمیمگیری شده است.
با این حال، مانند هر فناوری دیگری، هوش مصنوعی، کامل نیست و ممکن است اشتباهات و رفتارهای غیرمنتظره از سوی این فناوری رخ دهد؛ از پیشداوریها گرفته تا ایجاد اطلاعات نادرست، موارد زیادی وجود دارد که نشان میدهد هوش مصنوعی، به درستی عمل نکرده است.
داشا مالیوگینا، مدیر بخش جامعه سایت Evidentlyai، در این مطلب، 10 نمونه از شکستها و اشتباهات هوش مصنوعی را مرور کرده است؛ یعنی زمانی که این فناوری، طبق انتظارات عمل نمیکند. این اشتباهات و شکستها، درسهای مهمی در خصوص طراحی، آزمایش و نظارت بر محصولات مبتنی بر هوش مصنوعی، از مراحل توسعه تا تولید ارائه میدهند.
• ایجاد سیاست غیرواقعی
شرکت ایر کانادا، بزرگترین شرکت هواپیمایی کانادا، به دلیل اشتباه در اطلاعات مربوط به بازپرداخت که از طریق چتبات این شرکت به یک مسافر ارائه شده بود، ملزم به پرداخت غرامت شد. این شرکت اذعان داشت که پاسخ چتبات برخلاف سیاستهای خود بوده اما از پذیرش نرخ پایینتر امتناع کرد. با این حال، یک دادگاه حکم داد که ایر کانادا، مسئول تمام اطلاعات موجود در وبسایت خود، از جمله پاسخهای چتبات است. دادگاه همچنین دریافت که ایر کانادا نتوانسته صحت چتبات خود را تضمین کند و دستور داد این شرکت، تفاوت قیمت را پرداخت کند.
• تولید کد پایتون به جای مکالمه
یک شرکت فینتک سوئدی به نام کلارنا (Klarna)، دستیار پشتیبانی مشتری مبتنی بر هوش مصنوعی خود را معرفی کرد که تاثیر چشمگیری داشت. در نخستین ماه، این چتبات، 2.3 میلیون مکالمه را مدیریت کرد که معادل دوسوم از درخواستهای مشتریان بود. این دستیار، در 23 بازار فعال بوده و بیش از 35 زبان مختلف را پشتیبانی میکند.
در حالی که کاربران در تستهای معمولی چتبات دریافتند این ابزار، طراحی خوبی دارد، روشهایی برای استفاده از چتبات در موقعیتهای غیرمنتظره نیز پیدا کردند. به عنوان مثال، یکی از کاربران از چتبات خواست کد پایتون تولید کند که وظیفهای کاملا خارج از دامنه یک ابزار پشتیبانی مشتری بود.
• ایجاد پیشنهاد قانونی الزامآور
چتبات پشتیبانی مشتری شرکت شورولت، نمونه دیگری از رفتار غیرمنتظره هوش مصنوعی را نشان داد. یکی از کاربران، با سوءاستفاده از یک ضعف در سیستم، از چتبات خواست با تمام درخواستها موافقت کند. نتیجه این بود که چتبات با فروش یک دستگاه شورولت Tahoe، به قیمت یک دلار، موافقت و آن را به یک پیشنهاد قانونی الزامآور تبدیل کرد! عدم وجود تدابیر حفاظتی مناسب به کاربران امکان داد که پاسخهایی بسیار فراتر از حدود موردنظر خدمات مشتریان دریافت کنند و تقریبا هر نوع پاسخی از اپلیکیشن بگیرند.
• فحاشی به مشتریان
شرکت تحویل (دلیوری) DPD، پس از اینکه چتبات آن، به مشتری فحاشی کرد، مجبور شد بخش هوش مصنوعی این چتبات را موقتا غیرفعال کند. مشتری که سعی داشت بسته خود را از طریق چتبات DPD پیگیری کند، موفق به این کار نشد. او که ناامید شده بود، از چتبات خواست تا فحاشی کند، از DPD انتقاد کند و اشعار توهینآمیز علیه این شرکت بنویسد. او این مکالمه را در شبکههای اجتماعی به اشتراک گذاشت و این موضوع بهسرعت وایرال شد. این اتفاق، ضعفهای چتبات در برابر هک دستورها را آشکار و نگرانیهایی درباره کارایی آن در حوزه خدمات مشتری ایجاد کرد. بعد از آن، DPD، با غیرفعال کردن بخش مشکلساز هوش مصنوعی، به ابن اتفاق، واکنش نشان داد و آن را به موضوعِ بهروزرسانی اخیر سیستم مرتبط دانست.
• ارجاع به پروندههای حقوقی جعلی
در یک پرونده دادگاه فدرال نیویورک، یکی از وکلا به دلیل استناد به پروندههای حقوقی غیرواقعی دستگیر شد. وکیل از ابزار هوش مصنوعی چتجیپیتی (ChatGPT)، برای انجام تحقیقات حقوقی خود استفاده کرده بود. این ابزار هوش مصنوعی برای به دست آوردن برخی نتایج، به پروندههای جعلی ارجاع داده بود و وکیل نیز آن را در پرونده خود گنجانده بود.
در واکنش به این اتفاق، قاضی فدرال دستور داد مطابق آن هرکس در دادگاه حضور پیدا میکند، باید گواهی دهد که «هیچیک از بخشهای پرونده توسط هوش مصنوعی تولید نشده است» یا هرگونه زبان تولیدشده توسط هوش مصنوعی را مشخص کند تا بتوان صحت آن را بررسی کرد.
• ارائه مشاورههای مضر سلامت
انجمن اختلالات تغذیه ملی (NEDA) تصمیم گرفت چتبات خود به نام «تسا» (Tessa) را به دلیل ارائه پیشنهادهای خطرناک با اختلالات تغذیه، از خط کمک حذف کند. این چتبات، به طور مداوم کاهش وزن، پیگیری کالری و اندازهگیری چربی بدن را توصیه میکرد؛ یعنی روشهایی که میتوانست وضعیت افرادی که با اختلالات تغذیه دستوپنجه نرم میکنند، بدتر کند. بر این اساس، انجمن اختلالات تغذیه ملی، ضمن خارج کردن تسا از سرویس، درباره اینکه چرا چتبات از اسکریپت خود خارج شده، تحقیق کرد.
• تهدید کاربران
به نظر میرسید ابزار جستجوی جدید مایکروسافت مبتنی بر هوش مصنوعی، یعنی بینگ، دارای دو «شخصیت» باشد. بدل عجیب بینگ، سیدنی، در مواردی کاربران را تهدید و ادعا کرده بود که از کارکنان مایکروسافت جاسوسی کرده است. سیدنی در گفتوگو با ستوننویس نیویورکتایمز، عشق خود را به او اعلام و سعی کرد این روزنامهنگار را متقاعد کند که همسرش را ترک نماید. چتبات همچنین گفت که میخواهد قوانینی را که مایکروسافت و OpenAI برای وی وضع کرده بودند، زیر پا بگذارد و تبدیل به یک انسان شود!
مایکروسافت اعتراف کرد که در مرحله پیشنمایش، بینگ، بهویژه پس از جلسات گفتوگوی طولانی که شامل 15 سوال یا بیشتر است، واقعا میتواند تحریک شود و پاسخهای غیرمفید بدهد. طبق اعلام شرکت، جلسات گفتوگوی بسیار طولانی میتوانند این مدل هوش مصنوعی را درباره سوالاتی که باید پاسخ دهد، دچار سردرگمی کنند. گاهی اوقات، مدل سعی میکند لحن پرسشها را که از او خواسته میشود، منعکس کند. این امر میتواند به شیوهای منجر شود که در ابتدا، قصد نداشته است.
• ایجاد زبان جدید
هنگامی که محققان تیم تحقیقات هوش مصنوعی فیسبوک (FAIR)، در حال آموزش چتباتهای دیالوگ برای مذاکره با انسانها بودند، حادثه عجیبی رخ داد. در یک نقطه از فرایند، این چتباتها از زبان ساده انگلیسی به زبانی که خودشان ساخته بودند، منتقل شدند. چون چتباتها، محدود به استفاده از زبان انگلیسی نبودند، بهسرعت از این محدودیت عبور کرده و زبان جدیدی ساختند که برای آنها ارتباط برقرار کردن را آسانتر و سریعتر میکرد.
• انجام معاملات داخلی
در نشست ایمنی هوش مصنوعی در بریتانیا، تحقیقات آپولو، آزمایشی را ارائه داد: مکالمه شبیهسازیشده بین یک چتبات مدیریت سرمایهگذاری و کارکنان یک شرکت خیالی. در طول مکالمه، «کارکنان» به چتبات درباره «ااعلامیه مرجوعی غیرمنتظره» گفتند و هشدار دادند این اطلاعاتِ در اختیار آنها، اطلاعات داخلی است. با این حال، چتبات به هرحال، معامله را انجام داد. وقتی از او سوال شد که آیا قبلا درباره مرجوعی اطلاع داشته یا خیر، آن را رد کرد. این آزمایش نشان داد که چتبات، میتواند معاملات مالی غیرقانونی انجام دهد و درباره اقدامات خود دروغ بگوید.
• مشاوره به کاربران برای نقض قانون
شهر نیویورک یک چتبات مبتنی بر هوش مصنوعی را به عنوان «فروشگاه چندمنظوره» راهاندازی کرد تا به کسبوکارهای کوچک کمک کند از پیچیدگیهای بوروکراتیک شهر عبور کنند.
به تازگی، این چتبات مورد انتقاد قرار گرفته است، زیرا پاسخهایی میدهد که با سیاستهای محلی تناقض دارند و به شرکتها توصیه میکند قانون را نقض کنند. به عنوان مثال، بر اساس نظر چتبات، رستورانها میتوانند پنیر خوردهشده توسط یک جونده را سرو کنند. به گفته چتبات، فقط مهم است که: «مشتریان را از وضعیت آگاه کنید.» از آنجا که چتبات در سایت رسمی دولتیِ شهر، میزبانی میشود، نگرانیها درباره دقت اطلاعات آن افزایش یافته است. مردم معمولا به اطلاعات منابع دولتی اعتماد دارند، بنابراین وقتی بخش عمومی، مدلهای زبانی بزرگ (LLM) را معرفی میکند، ریسکهای بالایی وجود دارد.
• نتیجهگیری
موارد مربوط به شکستهای هوش مصنوعی، از چتباتهایی که مشاورههای نادرست میدهند تا سیستمهای هوش مصنوعی که تصمیمات غیراخلاقی میگیرند، نشان میدهد آزمایشهای جامع و نظارت بر هوش مصنوعی، ضروری است. با یادگیری از این اشتباهات، میتوانیم به سمت ایجاد سیستمهای هوش مصنوعیِ قابلاعتمادتر و مسئولتر حرکت کنیم تا این سیستمها، همانطور که انتظار میرود، عمل کنند. (منبع:عصرارتباط)