خطرات چترباتهای هوش مصنوعی برای حریم خصوصی
رباتهای چت هوش مصنوعی، از نظر استانداردهای فنی نسبتاً قدیمی هستند، اما جدیدترین محصول که توسط چت جیپیتی و بارد هدایت میشود، بسیار قویتر از اجداد خود فعالیت میکنند.
به گزارش خبرگزاری صداوسیما به نقل از انگجت، انفجار اخیر در توسعه هوش مصنوعی نگرانیهایی را در مورد اطلاعات نادرست، سرقت ادبی و تولید بدافزارها ایجاد کرده است.
اکنون این سوال مطرح میشود که هوش مصنوعی ممکن است چه مشکلاتی برای حریم خصوصی کاربران عادی اینترنت ایجاد کند؟ به گفته کارشناسان، پاسخ این سوال تا حد زیادی به نحوه آموزش این رباتها و میزان برنامهریزی ما برای تعامل با آنها بستگی دارد.
چترباتهای هوش مصنوعی به منظور تکرار تعاملات شبیه انسان بر روی مقادیر انبوه داده آموزش میبینند.
«مگا سریواستاوا» دانشجوی دکترای دپارتمان علوم کامپیوتر استنفورد و عضو سابق هوش مصنوعی مایکروسافت ریسرچ، در این باره میگوید: این مدلها در حال واکاوی مجموعه بزرگی از دادههای در دسترس عموم در اینترنت هستند.
حتی اگر دسترسی به این اطلاعات برای کاربران معمولی دشوار باشد، این امکان وجود دارد که توسط رباتچت ذخیره شود.
«دیو لی» ستوننویس نشریه بلومبرگ در توییتر نوشت: وقتی شخصی از چت جیپیتی خواست تا در پلتفرم پیامرسانی رمزگذاریشده چت کند، شماره تلفن دقیق او را ارائه کرد.
وقتی از OpenAI، شرکت سازنده چت جیپیتی پرسیدیم که چه اقداماتی برای محافظت از حریم خصوصی دادهها انجام میدهد، پاسخی نداد.
بنابراین ما بهترین کار را انجام دادیم و از خود چت جیپیتی پرسیدیم. چت جیپیتی به ما گفت که برنامهریزی شده تا از استانداردهای اخلاقی و قانونی که از حریم خصوصی و اطلاعات شخصی کاربران محافظت میکند، پیروی کند و به اطلاعات شخصی دسترسی ندارد.
گوگل هم در پاسخ به این سوال گفت که اقدامات مشابهی را در بارد برنامهریزی کرده تا از اشتراکگذاری اطلاعات شخصی در طول مکالمه جلوگیری کند.
چت جیپیتی، دومین عامل مهمی که ممکن است توسط هوش مصنوعی برای حفظ حریم خصوصی ایجاد خطر کند را از طریق اطلاعات به اشتراک گذاشتهشده مستقیم عنوان کرد.
خطمشی رازداری OpenAI به اطلاعات جمعآوری شده از کاربران اشاره میکند که میتوانند قابل شناسایی باشند.
چت جیپیتی پس از راهاندازی به کاربر هشدار میدهد که ممکن است مکالمات توسط مربیان هوش مصنوعی برای بهبود سیستمها بررسی شود.
در مقابل، بارد خط مشی رازداری مستقلی ندارد اما از سند عمومی حریم خصوصی به اشتراک گذاشته شده توسط سایر محصولات گوگل استفاده میکند.
این شرکت گفت که مکالمات با بارد نباید در حساب گوگل کاربر ذخیره شود و کاربران می توانند مکالماتشان را حذف کنند.
«ریشی جتلی» استاد و محقق برجسته علوم انسانی در ویرجینیا در این زمینه گفت: کاربران باید در مورد سیاستهای حفظ حریم خصوصی و رویههای حفاظت از دادهها آگاه باشند.
بر اساس صفحه پرسشهای متداول سرویس چت جیپیتی استفاده از امکان مکالمات پاک، عملاً دادههای کاربر را حذف نمیکند و OpenAI نیز قادر به حذف درخواستهای خاص نیست.
در حالی که OpenAI کاربرانش را از اشتراکگذاری هر داده حساس منع میکند، ظاهراً تنها راه برای حذف اطلاعات شناسایی شخصیِ ارائهشده به چت جیپیتی، حذف حساب کاربر است که همه دادههای مرتبط را برای همیشه حذف میکند.
در نتیجه برای آینده، بهتر است با این نوع رباتهای چت با همان سوءظنی برخورد کنیم که کاربران باید با هر محصول فناوری دیگری رفتار کنند.
به گفته «مگا سریواستاوا»، کاربری که از این مدلهای هوش مصنوعی استفاده میکند باید با این توقع وارد شود که هرگونه تعامل با مدل، نوعی بازی است که OpenAI یا هر یک از این شرکتها میتوانند از آن به نفع خود استفاده کنند.