تحلیلجهان بحرانِ جهانی «وارونگی حقیقت» با هوش مصنوعی

ویدئوهای جعلی دیگر قابل تشخیص نیستند

آسیه فروردین - ‌سایت جروزالم‌پست، رسانه انگلیسی‌زبان اسرائیلی که در راستای سیاست‌ها و منافع اسرائیل است، تأثیرات تصاویر و رویدادهای جعلی را با استفاده از هوش مصنوعی، بررسی کرده است.

امروز هرکس با گوشی هوشمند می‌تواند ویدئوها و تصاویرِ بسیار واقعی تولید کند؛ پدیده‌ای که ادراک ما از جهان را در معرض فروپاشی قرار داده است. در ژوئن ۲۰۲۵، ساعاتی پس از آغاز جنگ اسرائیل علیه ایران، شبکه‌های اجتماعی از تصاویر و ویدئوهایی پر شد که یک ویژگی مشترک داشتند: آنها تولیدشده با هوش مصنوعی مولد بودند.

بیشتر مردم فکر می‌کنند قادرند دیپ‌فیک‌ها را تشخیص دهند، اما واقعاً نمی‌توانند. پژوهش شرکت iProov، که پلتفرم بریتانیایی راستی‌آزمایی هویت مبتنی بر هوش مصنوعی است و از مرزها، دولت‌ها، مؤسسات مالی و دیگر نهادهای مهم در برابر دیپ‌فیک‌ها و دیگر تقلب‌های هویتی محافظت می‌کند، مؤید این ادعاست.

طبق نتایج این پژوهش، تنها ۰.۱ درصد (یک‌دهم‌درصد) از ۲۰۰۰ مصرف‌کننده بریتانیایی و آمریکایی مورد بررسی، توانستند به‌درستی محتوای واقعی را از جعلی تشخیص دهند. بیش از ۳۰ درصدِ افراد ۵۵ ساله و بالاتر حتی نمی‌دانستند دیپ‌فیک چیست. با‌این‌حال، بیش از ۶۰ درصد آنها اطمینان داشتند که می‌توانند دیپ‌فیک‌ها را تشخیص دهند، اما قادر به این کار نبودند. این پلتفرم هشدار می‌دهد: «این حس کاذبِ امنیت، نگرانی مهمی است.»

جعل با هوش مصنوعی
دولت آمریکا می‌گوید جعل توسط هوش مصنوعی می‌تواند بر سیاست‌گذاری عمومی و حتی انتخابات تأثیر بگذارد. وزارت امنیت داخلی آمریکا در گزارش «ارزیابی تهدیدات داخلی ۲۰۲۵» هشدار داد: «هوش مصنوعی مولد به بازیگران کمک می‌کند رسانه‌های مصنوعی، از جمله دیپ‌فیک‌ها را تولید، دستکاری و منتشر کنند؛ موضوعی که آن را به ابزار سودمند، به‌ویژه برای کارزارهای نفوذ مخرب تبدیل کرده است.»

این گزارش می‌افزاید: «محتوای تولیدشده یا دستکاری‌شده توسط هوش مصنوعی، مانند ویدئو، صدا، تصویر و متن که همگی می‌توانند شامل اطلاعات نادرست باشند، اینترنت را فراگرفته‌اند و بر الگوریتم‌های موتورهای جست‌وجو و پلتفرم‌های پخش ویدئو تأثیر گذاشته‌اند.»

در این رابطه، مقامات آمریکایی، عملیات دیپ‌فیک گسترده‌ای را که با هدف ایجاد تفرقه در جامعه آمریکا توسط قدرت‌های خارجی مانند روسیه و چین انجام شده، شناسایی کرده‌اند.

زمان واکنش
یکی از شرکت‌هایی که پیشتاز مقابله با این تهدید است، «سیابرا» (Cyabra)، استارتاپ بنیانگذاری‌شده توسط فارغ‌التحصیلان واحد ۸۲۰۰ اطلاعات نظامی اسرائیل است که برای دولت‌ها، نیروهای انتظامی و شرکت‌های بزرگ، جعل‌های آنلاین را رصد می‌کند (نویسنده مقاله، به‌عنوان یکی از مدیران OurCrowd، سرمایه‌گذار مستقر در اورشلیم، با سیابرا همکاری داشته است.)

سیابرا هنگام خریداری توییتر توسط ایلان ماسک، به او مشاوره داد و نشان داد ۱۱ درصد کاربران توییتر، جعلی هستند.

این شرکت، اخیراً تأثیر کارزارهای اطلاعات نادرست مبتنی بر هوش مصنوعی را رصد کرده است. اعتراضات نپال در سپتامبر که ۷۲ کشته برجای گذاشت، جنجال تغییر لوگوی Cracker Barrel که ۱۰ درصدِ ارزش سهام آن را کاهش داد و نیز فعالیت ربات‌هایی که کمپین «شلوار جین عالی» سیدنی سویینی برای برند American Eagle را نژادپرستانه جلوه دادند، از جمله این رویدادها هستند.

دان برامی، مدیرعامل و هم‌بنیانگذار سیابرا می‌گوید: «بزرگ‌ترین تهدید دنیای واقعی، فقط این نیست که هوش مصنوعی مولد، خوراک ما را با محتوای جعلی یا کم‌کیفیت پر می‌کند، بلکه این است که ادراک مشترک ما از حقیقت را از بین می‌برد.»

او ادامه می‌دهد: «وقتی هر چیزی در اینترنت می‌تواند واقعی به‌نظر برسد، جامعه، توان تشخیص اصالت را از دست می‌دهد. همین امر ما را در برابر دستکاری، قطبی‌سازی و کاهش اعتماد به نهادهای دموکراتیک، آسیب‌پذیرتر می‌کند.»

مدیرعامل سیابرا گفت: «هوش مصنوعی، مواردی مانند محتوای جعلی، حساب‌های ساختگی، روایت‌های غلط و دیپ‌فیک‌ها را بسیار ساده‌تر کرده است. کارزارهای هماهنگِ اطلاعات نادرست که با هوش مصنوعی تقویت می‌شوند، روایت‌های دروغ را سریع‌تر از توان سازمان‌ها و نهادها برای شناسایی و مهار آنها پخش می‌کنند. این کار، قبلاً نیازمند تلاش دستی برای گمراه کردن بود، اما اکنون توسط بسیاری از بازیگران بدخواه، به‌صورت خودکار و در مقیاس وسیع انجام می‌شود.»

او هشدار می‌دهد این خطر، سیاسی، تجاری و اجتماعی است: «برندها با بایکوت‌های تولیدشده توسط هوش مصنوعی، هدف قرار می‌گیرند، مدیرعامل‌ها جعل هویت می‌شوند و روایت‌های جعلی، طی چند ساعت وایرال می‌شوند. هوش مصنوعی مولد، اطلاعات نادرست را از یک مشکل گهگاهی، به ریسک نظام‌مند علیه گفت‌وگوی عمومی تبدیل کرده است.»

عصر جدید
دنیای وارونه هوش مصنوعی، میلیاردها دلار برای غول‌های شبکه‌های اجتماعی تولید می‌کند، چون باعث افزایش تعامل کاربران می‌شود. مارک زاکربرگ، مدیرعامل شرکت متا، در نشست بررسی عملکرد مالی اکتبر به سهامداران گفت که رسانه‌های اجتماعی، وارد «عصر سوم» شده‌اند؛ عصری که با محتوای تولیدشده توسط هوش مصنوعی هدایت می‌شود.

زاکربرگ گفت: «رسانه‌های اجتماعی تاکنون دو عصر را پشت سر گذاشته‌اند؛ نخست زمانی بود که همه محتوا توسط دوستان، خانواده و حساب‌هایی تولید می‌شد که مستقیماً آنها را دنبال می‌کردید. عصر دوم زمانی آغاز شد که محتوای تولیدکنندگان (Creators) را اضافه کردیم. اکنون، با آسان‌تر شدن تولید و بازآفرینی محتوا توسط هوش مصنوعی، قرار است مجموعه عظیم دیگری از محتوا به اینها افزوده شود.»

به گفته او: «سیستم‌های توصیه‌گر که این همه محتوا را عمیق‌تر درک کنند و محتوای درست را برای کمک به کاربران در رسیدن به اهداف نمایش دهند، ارزش بیشتری پیدا می‌کنند.»

زاکربرگ وعده داد که هوش مصنوعی در پست‌ها و الگوریتم‌هایی که کاربران را در پلتفرم نگه می‌دارند، حضور پررنگ‌تری خواهد داشت.

روزانه بیش از ۳.۵ میلیارد نفر، از یکی از پلتفرم‌های متا استفاده می‌کنند و سالانه درآمدی بیش از ۲۰۰ میلیارد دلار برای این شرکت ایجاد می‌شود. اشتیاق زاکربرگ را ایلان ماسک نیز دارد. پلتفرم ایکس، ۶۰۰ میلیون کاربر روزانه دارد و دو میلیارد نفر عمدتاً جوان نیز در تیک‌تاک حضور دارند؛ جایی که تصاویر تولیدشده با هوش مصنوعی به‌شدت محبوب‌اند. البته نشانه‌هایی از واکنش منفی نیز در حال پدیدار شدن است.

در ژوئیه، یوتیوب اعلام کرد توانایی کسب درآمد از محتوای «غیرواقعی» تولیدشده با هوش مصنوعی را کاهش می‌دهد؛ محتوایی که تهدید می‌کرد پلتفرم ویدئویی را غرق کند. نظرسنجی اکتبر شرکت Billion Dollar Boy، نماینده اینفلوئنسرهای آنلاین، «نشانه‌های خستگی» را نشان داد. اشتیاق به کارهای تولیدشده با هوش مصنوعی از ۶۰ درصد در ۲۰۲۳ به ۲۶ درصد در ۲۰۲۵ سقوط کرده است.

توماس والترز، مدیر نوآوری این شرکت می‌گوید: «دیگر تازگی این موضوع از بین رفته و محتوای انبوه، بدون برچسب و ضعیفِ تولیدشده با هوش مصنوعی که آن را «آش‌غذایی» می‌نامند، عامل احساسات منفی‌ای است که شاهد آن هستیم.»

همچنین Winsome Marketing، شرکت مشاوره مستقر در فیلادلفیا، استفاده از هوش مصنوعی را تشویق می‌کند، اما درباره تبعات آن نیز هشدار می‌دهد.

این شرکت گزارش داد: «مقیاس آلودگی رسانه‌های مصنوعی، حیرت‌انگیز است. نهادهای دولتی پیش‌بینی می‌کنند ۸ میلیون دیپ‌فیک در سال ۲۰۲۵ به اشتراک گذاشته می‌شود، در حالی که این رقم در سال ۲۰۲۳، تنها ۵۰۰ هزار مورد بود. پیش‌بینی می‌شود بازار جهانی شناسایی محتوای جعلی که ارزش آن در ۲۰۲۵ حدود ۱۹.۹۸ میلیارد دلار است، تا ۲۰۳۴ به ۶۸.۲۲ میلیارد دلار برسد. این رشد نیست؛ واکنش اضطراری دیجیتال در مقیاس کامل است.»

یافتن درمان
برامی از شرکت سیابرا معتقد است اگر هوش مصنوعی به‌درستی به‌کار گرفته شود، می‌تواند هم درمان باشد و هم مسئله.

او گفت: «ما باید با هوش مصنوعیِ بد، از هوش مصنوعیِ خوب استفاده کنیم. همان فناوری‌ای که اطلاعات نادرست تولید می‌کند، می‌تواند برای شناسایی و از بین بردن آن نیز به‌ کار گرفته شود. پلتفرم سیابرا از یادگیری ماشین پیشرفته برای کشف پروفایل‌های جعلی، شبکه‌های ربات‌های هماهنگ و محتوای تولیدشده با هوش مصنوعی در مقیاس وسیع استفاده می‌کند و محتوای واقعی را از مصنوعی تشخیص می‌دهد. مقابله با سوءاستفاده از هوش مصنوعی، علاوه بر چالش فناورانه، یک چالش اعتماد است. ما باید با قابل اندازه‌گیری ‌کردن دوباره اصالت، اعتماد را در فضاهای دیجیتال بازسازی کنیم.»

تابستان امسال، سیابرا یک ابزار پیشرفته شناسایی دیپ‌فیک معرفی کرد تا به شرکت‌ها و دولت‌ها در مقابله با تهدید فزاینده جعل‌های تولیدشده توسط هوش مصنوعی کمک کند. این ابزار با استفاده از هوش مصنوعی، تصاویر و ویدئوها را از نظر نشانه‌های دستکاری‌شده تحلیل می‌کند و تأیید اصالت را به‌سرعت ارائه می‌دهد.

برامی گفت که این ابزار «مانند ذره‌بین دیجیتال عمل می‌کند و اثرانگشت‌های نامرئیِ حتی قانع‌کننده‌ترین دیپ‌فیک‌ها را آشکار می‌سازد.»

او افزود: «هرچه دستکاری دیجیتال، تکامل می‌یابد، دفاع ما نیز باید همگام با آن پیش برود. این ابزار جدید، شفافیت و تحلیل دقیق را برای کمک به مشتریان‌ فراهم می‌کند تا اعتماد را حفظ کنند، گفت‌وگو را ایمن نگه دارند و از نهادهای دموکراتیک دفاع کنند.»

بااین‌‌حال، اندرو باد، بنیانگذار و مدیرعامل iProov، متقاعد نشده که هوش مصنوعی بتواند خودش را درمان کند. وی گفت: «باید این توهم را کنار بگذاریم که در آینده، امکان تشخیص محتوای جعلیِ تولیدشده توسط هوش مصنوعی وجود خواهد داشت. آن کشتی، دیگر حرکت کرده است.»

او ادامه داد: «یک یا دو سال پیش هنوز می‌شد تصاویر تولیدشده با هوش مصنوعی را به‌خاطر ناهماهنگی‌های بصری، مثل شش‌انگشت، گوش‌های ناموجود یا چشم‌هایی در موقعیت‌های عجیب، تشخیص داد، اما آنها از بین رفته‌اند. این تصور وجود داشت که مدل‌های شناسایی هوش مصنوعی را می‌توان طوری آموزش داد که محتوای تولیدشده توسط هوش مصنوعی را تشخیص دهند، اما این فناوری، تقریباً در لحظه تولید، منسوخ می‌شود. بنا به ‌تعریف، نسل بعدی، خروجی هوش مصنوعی را شناسایی نخواهد کرد.»

باد گفت: «فکر می‌کنم یک وارونگی رخ خواهد داد. مردم فرض خواهند کرد که نمی‌توان به آنچه چشمِ غیرمسلح می‌بیند، اعتماد کرد، مگر اینکه تصدیق‌شده باشد. هزینه تولید تصاویر مصنوعی تقریباً به صفر می‌رسد و آن‌قدر محتوای بی‌ارزشِ تولیدشده با هوش مصنوعی ایجاد می‌شود که ۹۰ درصد کل محتوا، جعلی خواهد بود؛ درست مانند کالاهای لوکس؛ ۹۰ درصد رولکس‌هایی که در ساحل فروخته می‌شوند، جعلی‌اند.»

او معتقد است محتوای آنلاین در آینده، همراه با مجموعه‌ای از اعتبارنامه‌های تولیدکننده محتوا ارائه خواهد شد؛ به‌طوری‌که «باید امکان تعیین زنجیره تأمین هر محتوا و نویسندگانی که مسئولیت آن را برعهده می‌گیرند، وجود داشته باشد؛ به‌شکلی که قابل جعل نباشد. این ابزارها هنوز وجود ندارند و باید توسعه یابند.»

او گفت: «بین محتوایی که برای سرگرمی است و شاید واقعی نباشد و نیز محتوایی که بتوان به آن اعتماد کرد، تفاوت وجود دارد. شما قادر خواهید بود بین رولکس فروخته‌شده در ساحل با رولکس واقعی (تقلبی در برابر اصل)، بر اساس اینکه چه‌کسی آن را تولید و چه‌کسی منتشر کرده، انتخاب کنید.»

منبع
عصر ارتباط
عضویت در تلگرام آی تی آنالیز

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا