ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

خطرات چت‌ربات‌های هوش مصنوعی برای حریم خصوصی

| يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۵:۳۸ ب.ظ | ۰ نظر

ربات‌های چت هوش مصنوعی، از نظر استانداردهای فنی نسبتاً قدیمی هستند، اما جدیدترین محصول که توسط چت جی‌پی‌تی و بارد هدایت می‌شود، بسیار قوی‌تر از اجداد خود فعالیت می‌کنند.

به گزارش خبرگزاری صداوسیما به نقل از انگجت، انفجار اخیر در توسعه هوش مصنوعی نگرانی‌هایی را در مورد اطلاعات نادرست، سرقت ادبی و تولید بدافزارها ایجاد کرده است.

اکنون این سوال مطرح می‌شود که هوش مصنوعی ممکن است چه مشکلاتی برای حریم خصوصی کاربران عادی اینترنت ایجاد کند؟ به گفته کارشناسان، پاسخ این سوال تا حد زیادی به نحوه آموزش این ربات‌ها و میزان برنامه‌ریزی ما برای تعامل با آنها بستگی دارد.

چت‌ربات‌های هوش مصنوعی به منظور تکرار تعاملات شبیه انسان بر روی مقادیر انبوه داده آموزش می‌بینند.

«مگا سریواستاوا» دانشجوی دکترای دپارتمان علوم کامپیوتر استنفورد و عضو سابق هوش مصنوعی مایکروسافت ریسرچ، در این باره می‌گوید: این مدل‌ها در حال واکاوی مجموعه بزرگی از داده‌های در دسترس عموم در اینترنت هستند.

حتی اگر دسترسی به این اطلاعات برای کاربران معمولی دشوار باشد، این امکان وجود دارد که توسط ربات‌چت ذخیره شود.

«دیو لی» ستون‌نویس نشریه بلومبرگ در توییتر نوشت: وقتی شخصی از چت جی‌پی‌تی خواست تا در پلتفرم پیام‌رسانی رمزگذاری‌شده چت کند، شماره تلفن دقیق او را ارائه کرد.

وقتی از OpenAI، شرکت سازنده چت جی‌پی‌تی پرسیدیم که چه اقداماتی برای محافظت از حریم خصوصی داده‌ها انجام می‌دهد‏، پاسخی نداد.

بنابراین ما بهترین کار را انجام دادیم و از خود چت جی‌پی‌تی پرسیدیم. چت جی‌پی‌تی به ما گفت که برنامه‌ریزی شده تا از استانداردهای اخلاقی و قانونی که از حریم خصوصی و اطلاعات شخصی کاربران محافظت می‌کند، پیروی کند و به اطلاعات شخصی دسترسی ندارد.

گوگل هم در پاسخ به این سوال گفت که اقدامات مشابهی را در بارد برنامه‌ریزی کرده تا از اشتراک‌گذاری اطلاعات شخصی در طول مکالمه جلوگیری کند.

چت جی‌پی‌تی‏، دومین عامل مهمی که ممکن است توسط هوش مصنوعی برای حفظ حریم خصوصی ایجاد خطر کند را از طریق اطلاعات به اشتراک گذاشته‌شده مستقیم عنوان کرد.

خط‌مشی رازداری OpenAI به اطلاعات جمع‌آوری شده از کاربران اشاره می‌کند که می‌توانند قابل شناسایی باشند.

چت جی‌پی‌تی پس از راه‌اندازی به کاربر هشدار می‌دهد که ممکن است مکالمات توسط مربیان هوش مصنوعی برای بهبود سیستم‌ها بررسی شود.

در مقابل‏، بارد خط‌ مشی رازداری مستقلی ندارد اما از سند عمومی حریم خصوصی به اشتراک گذاشته شده توسط سایر محصولات گوگل استفاده می‌کند.

این شرکت گفت که مکالمات با بارد نباید در حساب گوگل کاربر ذخیره شود و کاربران می توانند مکالماتشان را حذف کنند.

«ریشی جتلی» استاد و محقق برجسته علوم انسانی در ویرجینیا در این زمینه گفت: کاربران باید در مورد سیاست‌های حفظ حریم خصوصی و رویه‌های حفاظت از داده‌ها آگاه باشند.

بر اساس صفحه پرسش‌های متداول سرویس چت جی‌پی‌تی استفاده از امکان مکالمات پاک، عملاً داده‌های کاربر را حذف نمی‌کند و OpenAI نیز قادر به حذف درخواست‌های خاص نیست.

در حالی که OpenAI کاربرانش را از اشتراک‌گذاری هر داده حساس منع می‌کند، ظاهراً تنها راه برای حذف اطلاعات شناسایی شخصیِ ارائه‌شده به چت جی‌پی‌تی، حذف حساب کاربر است که همه داده‌های مرتبط را برای همیشه حذف می‌کند.

در نتیجه برای آینده، بهتر است با این نوع ربات‌های چت با همان سوءظنی برخورد کنیم که کاربران باید با هر محصول فناوری دیگری رفتار کنند.

به گفته «مگا سریواستاوا»، کاربری که از این مدل‌های هوش مصنوعی استفاده می‌کند باید با این توقع وارد شود که هرگونه تعامل با مدل، نوعی بازی است که OpenAI یا هر یک از این شرکت‌ها می‌توانند از آن به نفع خود استفاده کنند.

  • ۰۲/۰۱/۲۰

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">