ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

هوش مصنوعی سلاح تولید اطلاعات جعلی شد

| چهارشنبه, ۲۰ دی ۱۴۰۲، ۰۲:۱۳ ب.ظ | ۰ نظر

سمیه مهدی‌پیام – اکنون زمان آن رسیده که در برابر اطلاعات نادرست تولیدشده توسط هوش مصنوعی بایستیم.

Msnbc در گزارشی به یکی دیگر از عوارض سو‌استفاده از هوش مصنوعی پرداخت و نوشت: از زمان ظهور برنامه‌های هوش مصنوعی قدرتمند مانند  ChatGPT، بسیاری از مردم بر این موضوع تمرکز کرده‌اند که هوش مصنوعی تا چه حد از دستیابی به «هوش عمومی» در سطح انسانی فاصله دارد و چگونه ممکن است وضعیت جامعه را وارونه کند.

کارشناسان هوش مصنوعی هشدار دادند که برخی تهدیدهای اجتماعی اضطراری‌ در اطراف ما وجود دارد که می‌توان بدون ظرفیت خاصی به آنها دست یافت.

همان‌طور که گری مارکوس، استاد بازنشسته دانشگاه نیویورک معتقد است بازیگران بد، ممکن است سعی کنند از هوش مصنوعی مولد برای ایجاد سلاح‌های اطلاعات غلط به صورت جمعی استفاده کنند. این پیش‌بینی ترسناک، اکنون به حقیقت می‌پیوندد.

نیوزگارد (NewsGuard)که یک شرکت فعال در حوزه نظارت بر رسانه‌ها و اطلاعات نادرست، است در جدیدترین گزارش خود اعلام کرد که بیش از 600 سایت خبری و اطلاعاتی غیرقابل اعتماد تولیدشده توسط هوش مصنوعی را در اینترنت شناسایی کرده است.

 بر اساس گزارش واشنگتن پست، این امر بیانگر افزایش بیش از 1000 درصدی در ماه می است. این سایت‌ها، مشابه ‌‌سایت‌های خبری و اطلاع‌رسانی معمولی هستند اما NewsGuard با بررسی دقیق‌تر متوجه شد نشانه‌هایی از عملکرد بدون نظارت انسانی یا انتشار مقاله‌هایی که عمدتا به طور کامل توسط ربات‌ها نوشته شده‌اند، دیده می‌شود؛ ربات‌هایی که صدها مقاله درباره موضوعات مختلف، شامل سیاست، سرگرمی و فناوری تولید می‌کنند. برخی از آنها به طور گسترده در رسانه‌های اجتماعی منتشر می‌شوند و حتی جریان‌ها و سوژه‌های خبری را شکل می‌دهند.

همچنین عملیات هوش مصنوعی به صورت بومی در پلتفرم‌های رسانه‌های اجتماعی اجرا می‌شود.

در این رابطه، NewsGuard، شبکه‌ای متشکل از ده‌ها حساب تیک‌تاک پیدا کرده که از نرم‌افزار تبدیل متن به گفتار هوش مصنوعی برای انتشار اطلاعات غلط سیاسی و بهداشتی در ویدئوهایی که مجموعا بیش از 300 میلیون بازدید داشته‌اند، استفاده کرده‌اند.

در یک نمونه، ویدئویی به طرز مضحک ادعا می‌کند که باراک اوباما، رئیس‌جمهور اسبق آمریکا، یکی از سرآشپزهای سابق خود در کاخ سفید را به قتل رسانده است. این ویدئو از فناوری هوش مصنوعی استفاده می‌کند تا یک بیانیه کامپیوتری برای «اوباما» در پاسخ به روایت نادرست ایجاد کند.

اکنون زمان زیادی از این موضوع گذشته که نگران باشیم آیا افراد در اینترنت، ناآگاهانه اخبار جعلی تولیدشده توسط ربات‌ها را می‌خوانند و به اشتراک می‌گذارند یا خیر. از سوی دیگر مشخص نیست مالک سایت‌ها و حساب‌های شناسایی‌شده کیست.

این امر نشان می‌دهد چگونه بازیگران سیاسی، در داخل یا خارج از کشور، می‌توانند بدون هیچ هزینه‌ای به جنگ‌های اطلاعاتی بپیوندند. بدترین بخش این است که زمان زیادی طول می‌کشد تا مردم، کاملا در برابر این اقدامات هوشیار باشند.

در این رابطه یکی از مثال‌های مطرح‌شده توسط NewsGuard آموزنده است.

سایتی به نام Global Village Space در ماه نوامبر، مقاله‌ای منتشر کرد که در آن ادعا شده بود روان‌پزشکِ بنیامین نتانیاهو، نخست‌وزیر اسرائیل، پس از ناکامی در درمان وی، خودکشی کرده است. این داستان، نه تنها نادرست، بلکه پوچ است.

به گفته  NewsGuard، این مطلب، مشابه نسخه‌ دوباره یک مقاله طنز در سال 2010 است. چت‌بات‌های هوش مصنوعی، اطلاعات را از اینترنت موجود حذف می‌کنند. نمونه‌های مستندی از پاسخ‌های آنها وجود دارد که صرفا بخشی از مقالات خبری موجود را دوباره ایجاد می‌کنند.

با این حال، این داستان در ‌سایت Global Village Space به عنوان طنز ارائه نشد و به چندین زبان در شبکه‌های اجتماعی، انتخاب و به عنوان خبر واقعی از سوی کانال خبری ایران پخش شد.

هرچند این داستان ممکن است ظاهرا مضحک به نظر برسد اما در ایران، به عنوان دشمن اسرائیل، این داستان نادرست، به طور طبیعی از روایت‌هایی مبنی بر اینکه نتانیاهو از نظر ذهنی بی‌ثبات است، حمایت می‌کند.

این، یک مثال قابل توجه از این جهت است که هوش مصنوعی چگونه می‌تواند تئوری‌های توطئه را ایجاد کند و با هزینه بسیار کم، قطب‌بندی سیاسی را در اختیار بگیرد.

برخلاف عملیات اطلاعات نادرست تولیدشده توسط انسان، این سایت‌ها، تقریبا هزینه‌های نیروی کار را کاهش می‌دهند و اطلاعات جعلی بیشتری را با سرعت خارق‌العاده تولید می‌کنند.

به نظر می‌رسد این سایت‌های تولیدشده با هوش مصنوعی، از درآمد تبلیغاتی برای سودآوری استفاده می‌کنند. یکی از راه‌های ممکن برای ممانعت از ایجاد آنها و عدم انگیزه ایجاد آن، پیدا کردن راه‌هایی است که برندها را به ایجاد درآمد برای وب‌سایت‌های تولیدشده با هوش مصنوعی وادار نکنند.

در حالی که این موضوع ممکن است در حوزه مزارع محتوای سودمحور، اثربخش باشد اما از عموم مردم در برابر عملیات اطلاعات نادرست صرفا سیاسی و دولتی، محافظت نمی‌کند.

یکی از راهکارهای عملی، اطلاع رسانی به شهروندان درباره خطرات اطلاعات تولیدشده توسط هوش مصنوعی و آموزش افراد در زمینه سواد اینترنتی از طریق مقالات خبری، پروژه‌های آموزشی و برنامه‌های درسی مدارس است. این امر میسر نیست، مگر اینکه مردم یاد بگیرند به مصرف‌کنندگان اخبار حیاتی تبدیل شوند و درک کنند چگونه منابع را بررسی و تحلیل کنند.

اکنون ما وارد عصر جدید جنگ اطلاعاتی شده‌ایم و متاسفانه به نظر می‌رسد بسیاری از افراد، در حال حاضر، قرار است همچنان غافلگیر شوند. (منبع:عصرارتباط)

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">