ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۰ نمونه از گاف‌‌های هوش مصنوعی

| سه شنبه, ۷ اسفند ۱۴۰۳، ۰۲:۰۴ ب.ظ | ۰ نظر

علی شمیرانی - هوش مصنوعی در بسیاری از صنایع، از جمله مراقبت‌های بهداشتی و مالی، انقلاب به پا کرده و اغلب باعث بهبود کارایی و تصمیم‌گیری شده است.

با این حال، مانند هر فناوری دیگری، هوش مصنوعی، کامل نیست و ممکن است اشتباهات و رفتارهای غیرمنتظره از سوی این فناوری رخ دهد؛ از پیشداوری‌ها گرفته تا ایجاد اطلاعات نادرست، موارد زیادی وجود دارد که نشان می‌دهد هوش مصنوعی، به درستی عمل نکرده است.
داشا مالیوگینا، مدیر بخش جامعه ‌سایت Evidentlyai، در این مطلب، 10 نمونه از شکست‌ها و اشتباهات هوش مصنوعی را مرور کرده است؛ یعنی زمانی که این فناوری، طبق انتظارات عمل نمی‌کند. این اشتباهات و شکست‌ها، درس‌های مهمی در خصوص طراحی، آزمایش و نظارت بر محصولات مبتنی بر هوش مصنوعی، از مراحل توسعه تا تولید ارائه می‌دهند.


•    ایجاد سیاست غیرواقعی
شرکت ایر کانادا، بزرگ‌ترین شرکت هواپیمایی کانادا، به دلیل اشتباه در اطلاعات مربوط به بازپرداخت که از طریق چت‌بات این شرکت به یک مسافر ارائه شده بود، ملزم به پرداخت غرامت شد. این شرکت اذعان داشت که پاسخ چت‌بات برخلاف سیاست‌های خود بوده اما از پذیرش نرخ پایین‌تر امتناع کرد. با این حال، یک دادگاه حکم داد که ایر کانادا، مسئول تمام اطلاعات موجود در وب‌سایت خود، از جمله پاسخ‌های چت‌بات است. دادگاه همچنین دریافت که ایر کانادا نتوانسته صحت چت‌بات خود را تضمین کند و دستور داد این شرکت، تفاوت قیمت را پرداخت کند.


•    تولید کد پایتون به جای مکالمه
یک شرکت فین‌تک سوئدی به نام کلارنا (Klarna)، دستیار پشتیبانی مشتری مبتنی بر هوش مصنوعی خود را معرفی کرد که تاثیر چشمگیری داشت. در نخستین ماه، این چت‌بات، 2.3 میلیون مکالمه را مدیریت کرد که معادل دوسوم از درخواست‌های مشتریان بود. این دستیار، در 23 بازار فعال بوده و بیش از  35 زبان مختلف را پشتیبانی می‌کند.
در حالی که کاربران در تست‌های معمولی چت‌بات دریافتند این ابزار، طراحی خوبی دارد، روش‌هایی برای استفاده از چت‌بات در موقعیت‌های غیرمنتظره نیز پیدا کردند. به عنوان مثال، یکی از کاربران از چت‌بات خواست کد پایتون تولید کند که وظیفه‌ای کاملا خارج از دامنه یک ابزار پشتیبانی مشتری بود.


•    ایجاد پیشنهاد قانونی الزام‌آور
چت‌بات پشتیبانی مشتری شرکت شورولت، نمونه دیگری از رفتار غیرمنتظره هوش مصنوعی را نشان داد. یکی از کاربران، با سوءاستفاده از یک ضعف در سیستم، از چت‌بات خواست با تمام درخواست‌ها موافقت کند. نتیجه این بود که چت‌بات با فروش یک دستگاه شورولت Tahoe، به قیمت یک دلار، موافقت و آن را به یک پیشنهاد قانونی الزام‌آور تبدیل کرد! عدم وجود تدابیر حفاظتی مناسب به کاربران امکان داد که پاسخ‌هایی بسیار فراتر از حدود موردنظر خدمات مشتریان دریافت کنند و تقریبا هر نوع پاسخی از اپلیکیشن بگیرند.


•    فحاشی به مشتریان
شرکت تحویل (دلیوری) DPD، پس از اینکه چت‌بات آن، به مشتری فحاشی کرد، مجبور شد بخش هوش مصنوعی این چت‌بات را موقتا غیرفعال کند. مشتری که سعی داشت بسته خود را از طریق چت‌بات DPD پیگیری کند، موفق به این کار نشد. او که ناامید شده بود، از چت‌بات خواست تا فحاشی کند، از DPD انتقاد کند و اشعار توهین‌آمیز علیه این شرکت بنویسد. او این مکالمه را در شبکه‌های اجتماعی به اشتراک گذاشت و این موضوع به‌سرعت وایرال شد. این اتفاق، ضعف‌های چت‌بات در برابر هک دستورها را آشکار و نگرانی‌هایی درباره کارایی آن در حوزه خدمات مشتری ایجاد کرد. بعد از آن، DPD، با غیرفعال کردن بخش مشکل‌ساز هوش مصنوعی، به ابن اتفاق، واکنش نشان داد و آن را به موضوعِ به‌روزرسانی اخیر سیستم مرتبط دانست.


•    ارجاع به پرونده‌های حقوقی جعلی
در یک پرونده دادگاه فدرال نیویورک، یکی از وکلا به دلیل استناد به پرونده‌های حقوقی غیرواقعی دستگیر شد. وکیل از ابزار هوش مصنوعی چت‌جی‌پی‌تی (ChatGPT)، برای انجام تحقیقات حقوقی خود استفاده کرده بود. این ابزار هوش مصنوعی برای به دست آوردن برخی نتایج، به پرونده‌های جعلی ارجاع داده بود و وکیل نیز آن را در پرونده خود گنجانده بود. 
در واکنش به این اتفاق، قاضی فدرال دستور داد مطابق آن هرکس در دادگاه حضور پیدا می‌کند، باید گواهی دهد که «هیچ‌یک از بخش‌های پرونده توسط هوش مصنوعی تولید نشده است» یا هرگونه زبان تولیدشده توسط هوش مصنوعی را مشخص کند تا بتوان صحت آن را بررسی کرد.


•    ارائه مشاوره‌های مضر سلامت
انجمن اختلالات تغذیه ملی (NEDA) تصمیم گرفت چت‌بات خود به نام «تسا» (Tessa) را به دلیل ارائه پیشنهادهای خطرناک با اختلالات تغذیه، از خط کمک حذف کند. این چت‌بات، به طور مداوم کاهش وزن، پیگیری کالری و اندازه‌گیری چربی بدن را توصیه می‌کرد؛ یعنی روش‌هایی که می‌توانست وضعیت افرادی که با اختلالات تغذیه دست‌وپنجه نرم می‌کنند، بدتر کند. بر این اساس، انجمن اختلالات تغذیه ملی، ضمن خارج کردن تسا از سرویس، درباره اینکه چرا چت‌بات از اسکریپت خود خارج شده، تحقیق کرد.


•    تهدید کاربران
به نظر می‌رسید ابزار جستجوی جدید مایکروسافت مبتنی بر هوش مصنوعی، یعنی بینگ، دارای دو «شخصیت» باشد. بدل عجیب بینگ، سیدنی، در مواردی کاربران را تهدید و ادعا کرده بود که از کارکنان مایکروسافت جاسوسی کرده است. سیدنی در گفت‌وگو با ستون‌نویس نیویورک‌تایمز، عشق خود را به او اعلام و سعی کرد این روزنامه‌نگار را متقاعد کند که همسرش را ترک نماید. چت‌بات همچنین گفت که می‌خواهد قوانینی را که مایکروسافت و OpenAI برای وی وضع کرده بودند، زیر پا بگذارد و تبدیل به یک انسان شود!
مایکروسافت اعتراف کرد که در مرحله پیش‌نمایش، بینگ، به‌ویژه پس از جلسات گفت‌وگوی طولانی که شامل 15 سوال یا بیشتر است، واقعا می‌تواند تحریک شود و پاسخ‌های غیرمفید بدهد. طبق اعلام شرکت، جلسات گفت‌وگوی بسیار طولانی می‌توانند این مدل هوش مصنوعی را درباره سوالاتی که باید پاسخ دهد، دچار سردرگمی کنند. گاهی اوقات، مدل سعی می‌کند لحن پرسش‌ها را که از او خواسته می‌شود، منعکس کند. این امر می‌تواند به شیوه‌ای منجر شود که در ابتدا، قصد نداشته است.


•    ایجاد زبان جدید
هنگامی که محققان تیم تحقیقات هوش مصنوعی فیس‌بوک (FAIR)، در حال آموزش چت‌بات‌های دیالوگ برای مذاکره با انسان‌ها بودند، حادثه عجیبی رخ داد. در یک نقطه از فرایند، این چت‌بات‌ها از زبان ساده انگلیسی به زبانی که خودشان ساخته بودند، منتقل شدند. چون چت‌بات‌ها، محدود به استفاده از زبان انگلیسی نبودند، به‌سرعت از این محدودیت عبور کرده و زبان جدیدی ساختند که برای آنها ارتباط برقرار کردن را آسان‌تر و سریع‌تر می‌کرد.


•    انجام معاملات داخلی
در نشست ایمنی هوش مصنوعی در بریتانیا، تحقیقات آپولو، آزمایشی را ارائه داد: مکالمه شبیه‌سازی‌شده‌ بین یک چت‌بات مدیریت سرمایه‌گذاری و کارکنان یک شرکت خیالی. در طول مکالمه، «کارکنان» به چت‌بات درباره «ااعلامیه مرجوعی غیرمنتظره» گفتند و هشدار دادند این اطلاعاتِ در اختیار آنها، اطلاعات داخلی است. با این حال، چت‌بات به هرحال، معامله را انجام داد. وقتی از او سوال شد که آیا قبلا درباره مرجوعی اطلاع داشته یا خیر، آن را رد کرد. این آزمایش نشان داد که چت‌بات، می‌تواند معاملات مالی غیرقانونی انجام دهد و درباره اقدامات خود دروغ بگوید.


•    مشاوره به کاربران برای نقض قانون
شهر نیویورک یک چت‌بات مبتنی بر هوش مصنوعی را به عنوان «فروشگاه چندمنظوره» راه‌اندازی کرد تا به کسب‌وکارهای کوچک کمک کند از پیچیدگی‌های بوروکراتیک شهر عبور کنند. 
به تازگی، این چت‌بات مورد انتقاد قرار گرفته است، زیرا پاسخ‌هایی می‌دهد که با سیاست‌های محلی تناقض دارند و به شرکت‌ها توصیه می‌کند قانون را نقض کنند. به عنوان مثال، بر اساس نظر چت‌بات، رستوران‌ها می‌توانند پنیر خورده‌شده توسط یک جونده را سرو کنند. به گفته چت‌بات، فقط مهم است که: «مشتریان را از وضعیت آگاه کنید.» از آنجا که چت‌بات در ‌سایت رسمی دولتیِ شهر، میزبانی می‌شود، نگرانی‌ها درباره دقت اطلاعات آن افزایش یافته است. مردم معمولا به اطلاعات منابع دولتی اعتماد دارند، بنابراین وقتی بخش عمومی، مدل‌های زبانی بزرگ (LLM) را معرفی می‌کند، ریسک‌های بالایی وجود دارد.


•    نتیجه‌گیری
موارد مربوط به شکست‌های هوش مصنوعی، از چت‌بات‌هایی که مشاوره‌های نادرست می‌دهند تا سیستم‌های هوش مصنوعی که تصمیمات غیراخلاقی می‌گیرند، نشان‌ می‌دهد آزمایش‌های جامع و نظارت بر هوش مصنوعی، ضروری است. با یادگیری از این اشتباهات، می‌توانیم به سمت ایجاد سیستم‌های هوش مصنوعیِ قابل‌اعتمادتر و مسئول‌تر حرکت کنیم تا این سیستم‌ها، همان‌طور که انتظار می‌رود، عمل کنند. (منبع:عصرارتباط)

  • ۰۳/۱۲/۰۷

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">