
امروز هرکس با گوشی هوشمند میتواند ویدئوها و تصاویرِ بسیار واقعی تولید کند؛ پدیدهای که ادراک ما از جهان را در معرض فروپاشی قرار داده است. در ژوئن ۲۰۲۵، ساعاتی پس از آغاز جنگ اسرائیل علیه ایران، شبکههای اجتماعی از تصاویر و ویدئوهایی پر شد که یک ویژگی مشترک داشتند: آنها تولیدشده با هوش مصنوعی مولد بودند.
بیشتر مردم فکر میکنند قادرند دیپفیکها را تشخیص دهند، اما واقعاً نمیتوانند. پژوهش شرکت iProov، که پلتفرم بریتانیایی راستیآزمایی هویت مبتنی بر هوش مصنوعی است و از مرزها، دولتها، مؤسسات مالی و دیگر نهادهای مهم در برابر دیپفیکها و دیگر تقلبهای هویتی محافظت میکند، مؤید این ادعاست.
طبق نتایج این پژوهش، تنها ۰.۱ درصد (یکدهمدرصد) از ۲۰۰۰ مصرفکننده بریتانیایی و آمریکایی مورد بررسی، توانستند بهدرستی محتوای واقعی را از جعلی تشخیص دهند. بیش از ۳۰ درصدِ افراد ۵۵ ساله و بالاتر حتی نمیدانستند دیپفیک چیست. بااینحال، بیش از ۶۰ درصد آنها اطمینان داشتند که میتوانند دیپفیکها را تشخیص دهند، اما قادر به این کار نبودند. این پلتفرم هشدار میدهد: «این حس کاذبِ امنیت، نگرانی مهمی است.»
جعل با هوش مصنوعی
دولت آمریکا میگوید جعل توسط هوش مصنوعی میتواند بر سیاستگذاری عمومی و حتی انتخابات تأثیر بگذارد. وزارت امنیت داخلی آمریکا در گزارش «ارزیابی تهدیدات داخلی ۲۰۲۵» هشدار داد: «هوش مصنوعی مولد به بازیگران کمک میکند رسانههای مصنوعی، از جمله دیپفیکها را تولید، دستکاری و منتشر کنند؛ موضوعی که آن را به ابزار سودمند، بهویژه برای کارزارهای نفوذ مخرب تبدیل کرده است.»
این گزارش میافزاید: «محتوای تولیدشده یا دستکاریشده توسط هوش مصنوعی، مانند ویدئو، صدا، تصویر و متن که همگی میتوانند شامل اطلاعات نادرست باشند، اینترنت را فراگرفتهاند و بر الگوریتمهای موتورهای جستوجو و پلتفرمهای پخش ویدئو تأثیر گذاشتهاند.»
در این رابطه، مقامات آمریکایی، عملیات دیپفیک گستردهای را که با هدف ایجاد تفرقه در جامعه آمریکا توسط قدرتهای خارجی مانند روسیه و چین انجام شده، شناسایی کردهاند.
زمان واکنش
یکی از شرکتهایی که پیشتاز مقابله با این تهدید است، «سیابرا» (Cyabra)، استارتاپ بنیانگذاریشده توسط فارغالتحصیلان واحد ۸۲۰۰ اطلاعات نظامی اسرائیل است که برای دولتها، نیروهای انتظامی و شرکتهای بزرگ، جعلهای آنلاین را رصد میکند (نویسنده مقاله، بهعنوان یکی از مدیران OurCrowd، سرمایهگذار مستقر در اورشلیم، با سیابرا همکاری داشته است.)
سیابرا هنگام خریداری توییتر توسط ایلان ماسک، به او مشاوره داد و نشان داد ۱۱ درصد کاربران توییتر، جعلی هستند.
این شرکت، اخیراً تأثیر کارزارهای اطلاعات نادرست مبتنی بر هوش مصنوعی را رصد کرده است. اعتراضات نپال در سپتامبر که ۷۲ کشته برجای گذاشت، جنجال تغییر لوگوی Cracker Barrel که ۱۰ درصدِ ارزش سهام آن را کاهش داد و نیز فعالیت رباتهایی که کمپین «شلوار جین عالی» سیدنی سویینی برای برند American Eagle را نژادپرستانه جلوه دادند، از جمله این رویدادها هستند.
دان برامی، مدیرعامل و همبنیانگذار سیابرا میگوید: «بزرگترین تهدید دنیای واقعی، فقط این نیست که هوش مصنوعی مولد، خوراک ما را با محتوای جعلی یا کمکیفیت پر میکند، بلکه این است که ادراک مشترک ما از حقیقت را از بین میبرد.»
او ادامه میدهد: «وقتی هر چیزی در اینترنت میتواند واقعی بهنظر برسد، جامعه، توان تشخیص اصالت را از دست میدهد. همین امر ما را در برابر دستکاری، قطبیسازی و کاهش اعتماد به نهادهای دموکراتیک، آسیبپذیرتر میکند.»
مدیرعامل سیابرا گفت: «هوش مصنوعی، مواردی مانند محتوای جعلی، حسابهای ساختگی، روایتهای غلط و دیپفیکها را بسیار سادهتر کرده است. کارزارهای هماهنگِ اطلاعات نادرست که با هوش مصنوعی تقویت میشوند، روایتهای دروغ را سریعتر از توان سازمانها و نهادها برای شناسایی و مهار آنها پخش میکنند. این کار، قبلاً نیازمند تلاش دستی برای گمراه کردن بود، اما اکنون توسط بسیاری از بازیگران بدخواه، بهصورت خودکار و در مقیاس وسیع انجام میشود.»
او هشدار میدهد این خطر، سیاسی، تجاری و اجتماعی است: «برندها با بایکوتهای تولیدشده توسط هوش مصنوعی، هدف قرار میگیرند، مدیرعاملها جعل هویت میشوند و روایتهای جعلی، طی چند ساعت وایرال میشوند. هوش مصنوعی مولد، اطلاعات نادرست را از یک مشکل گهگاهی، به ریسک نظاممند علیه گفتوگوی عمومی تبدیل کرده است.»
عصر جدید
دنیای وارونه هوش مصنوعی، میلیاردها دلار برای غولهای شبکههای اجتماعی تولید میکند، چون باعث افزایش تعامل کاربران میشود. مارک زاکربرگ، مدیرعامل شرکت متا، در نشست بررسی عملکرد مالی اکتبر به سهامداران گفت که رسانههای اجتماعی، وارد «عصر سوم» شدهاند؛ عصری که با محتوای تولیدشده توسط هوش مصنوعی هدایت میشود.
زاکربرگ گفت: «رسانههای اجتماعی تاکنون دو عصر را پشت سر گذاشتهاند؛ نخست زمانی بود که همه محتوا توسط دوستان، خانواده و حسابهایی تولید میشد که مستقیماً آنها را دنبال میکردید. عصر دوم زمانی آغاز شد که محتوای تولیدکنندگان (Creators) را اضافه کردیم. اکنون، با آسانتر شدن تولید و بازآفرینی محتوا توسط هوش مصنوعی، قرار است مجموعه عظیم دیگری از محتوا به اینها افزوده شود.»
به گفته او: «سیستمهای توصیهگر که این همه محتوا را عمیقتر درک کنند و محتوای درست را برای کمک به کاربران در رسیدن به اهداف نمایش دهند، ارزش بیشتری پیدا میکنند.»
زاکربرگ وعده داد که هوش مصنوعی در پستها و الگوریتمهایی که کاربران را در پلتفرم نگه میدارند، حضور پررنگتری خواهد داشت.
روزانه بیش از ۳.۵ میلیارد نفر، از یکی از پلتفرمهای متا استفاده میکنند و سالانه درآمدی بیش از ۲۰۰ میلیارد دلار برای این شرکت ایجاد میشود. اشتیاق زاکربرگ را ایلان ماسک نیز دارد. پلتفرم ایکس، ۶۰۰ میلیون کاربر روزانه دارد و دو میلیارد نفر عمدتاً جوان نیز در تیکتاک حضور دارند؛ جایی که تصاویر تولیدشده با هوش مصنوعی بهشدت محبوباند. البته نشانههایی از واکنش منفی نیز در حال پدیدار شدن است.
در ژوئیه، یوتیوب اعلام کرد توانایی کسب درآمد از محتوای «غیرواقعی» تولیدشده با هوش مصنوعی را کاهش میدهد؛ محتوایی که تهدید میکرد پلتفرم ویدئویی را غرق کند. نظرسنجی اکتبر شرکت Billion Dollar Boy، نماینده اینفلوئنسرهای آنلاین، «نشانههای خستگی» را نشان داد. اشتیاق به کارهای تولیدشده با هوش مصنوعی از ۶۰ درصد در ۲۰۲۳ به ۲۶ درصد در ۲۰۲۵ سقوط کرده است.
توماس والترز، مدیر نوآوری این شرکت میگوید: «دیگر تازگی این موضوع از بین رفته و محتوای انبوه، بدون برچسب و ضعیفِ تولیدشده با هوش مصنوعی که آن را «آشغذایی» مینامند، عامل احساسات منفیای است که شاهد آن هستیم.»
همچنین Winsome Marketing، شرکت مشاوره مستقر در فیلادلفیا، استفاده از هوش مصنوعی را تشویق میکند، اما درباره تبعات آن نیز هشدار میدهد.
این شرکت گزارش داد: «مقیاس آلودگی رسانههای مصنوعی، حیرتانگیز است. نهادهای دولتی پیشبینی میکنند ۸ میلیون دیپفیک در سال ۲۰۲۵ به اشتراک گذاشته میشود، در حالی که این رقم در سال ۲۰۲۳، تنها ۵۰۰ هزار مورد بود. پیشبینی میشود بازار جهانی شناسایی محتوای جعلی که ارزش آن در ۲۰۲۵ حدود ۱۹.۹۸ میلیارد دلار است، تا ۲۰۳۴ به ۶۸.۲۲ میلیارد دلار برسد. این رشد نیست؛ واکنش اضطراری دیجیتال در مقیاس کامل است.»
یافتن درمان
برامی از شرکت سیابرا معتقد است اگر هوش مصنوعی بهدرستی بهکار گرفته شود، میتواند هم درمان باشد و هم مسئله.
او گفت: «ما باید با هوش مصنوعیِ بد، از هوش مصنوعیِ خوب استفاده کنیم. همان فناوریای که اطلاعات نادرست تولید میکند، میتواند برای شناسایی و از بین بردن آن نیز به کار گرفته شود. پلتفرم سیابرا از یادگیری ماشین پیشرفته برای کشف پروفایلهای جعلی، شبکههای رباتهای هماهنگ و محتوای تولیدشده با هوش مصنوعی در مقیاس وسیع استفاده میکند و محتوای واقعی را از مصنوعی تشخیص میدهد. مقابله با سوءاستفاده از هوش مصنوعی، علاوه بر چالش فناورانه، یک چالش اعتماد است. ما باید با قابل اندازهگیری کردن دوباره اصالت، اعتماد را در فضاهای دیجیتال بازسازی کنیم.»
تابستان امسال، سیابرا یک ابزار پیشرفته شناسایی دیپفیک معرفی کرد تا به شرکتها و دولتها در مقابله با تهدید فزاینده جعلهای تولیدشده توسط هوش مصنوعی کمک کند. این ابزار با استفاده از هوش مصنوعی، تصاویر و ویدئوها را از نظر نشانههای دستکاریشده تحلیل میکند و تأیید اصالت را بهسرعت ارائه میدهد.
برامی گفت که این ابزار «مانند ذرهبین دیجیتال عمل میکند و اثرانگشتهای نامرئیِ حتی قانعکنندهترین دیپفیکها را آشکار میسازد.»
او افزود: «هرچه دستکاری دیجیتال، تکامل مییابد، دفاع ما نیز باید همگام با آن پیش برود. این ابزار جدید، شفافیت و تحلیل دقیق را برای کمک به مشتریان فراهم میکند تا اعتماد را حفظ کنند، گفتوگو را ایمن نگه دارند و از نهادهای دموکراتیک دفاع کنند.»
بااینحال، اندرو باد، بنیانگذار و مدیرعامل iProov، متقاعد نشده که هوش مصنوعی بتواند خودش را درمان کند. وی گفت: «باید این توهم را کنار بگذاریم که در آینده، امکان تشخیص محتوای جعلیِ تولیدشده توسط هوش مصنوعی وجود خواهد داشت. آن کشتی، دیگر حرکت کرده است.»
او ادامه داد: «یک یا دو سال پیش هنوز میشد تصاویر تولیدشده با هوش مصنوعی را بهخاطر ناهماهنگیهای بصری، مثل ششانگشت، گوشهای ناموجود یا چشمهایی در موقعیتهای عجیب، تشخیص داد، اما آنها از بین رفتهاند. این تصور وجود داشت که مدلهای شناسایی هوش مصنوعی را میتوان طوری آموزش داد که محتوای تولیدشده توسط هوش مصنوعی را تشخیص دهند، اما این فناوری، تقریباً در لحظه تولید، منسوخ میشود. بنا به تعریف، نسل بعدی، خروجی هوش مصنوعی را شناسایی نخواهد کرد.»
باد گفت: «فکر میکنم یک وارونگی رخ خواهد داد. مردم فرض خواهند کرد که نمیتوان به آنچه چشمِ غیرمسلح میبیند، اعتماد کرد، مگر اینکه تصدیقشده باشد. هزینه تولید تصاویر مصنوعی تقریباً به صفر میرسد و آنقدر محتوای بیارزشِ تولیدشده با هوش مصنوعی ایجاد میشود که ۹۰ درصد کل محتوا، جعلی خواهد بود؛ درست مانند کالاهای لوکس؛ ۹۰ درصد رولکسهایی که در ساحل فروخته میشوند، جعلیاند.»
او معتقد است محتوای آنلاین در آینده، همراه با مجموعهای از اعتبارنامههای تولیدکننده محتوا ارائه خواهد شد؛ بهطوریکه «باید امکان تعیین زنجیره تأمین هر محتوا و نویسندگانی که مسئولیت آن را برعهده میگیرند، وجود داشته باشد؛ بهشکلی که قابل جعل نباشد. این ابزارها هنوز وجود ندارند و باید توسعه یابند.»
او گفت: «بین محتوایی که برای سرگرمی است و شاید واقعی نباشد و نیز محتوایی که بتوان به آن اعتماد کرد، تفاوت وجود دارد. شما قادر خواهید بود بین رولکس فروختهشده در ساحل با رولکس واقعی (تقلبی در برابر اصل)، بر اساس اینکه چهکسی آن را تولید و چهکسی منتشر کرده، انتخاب کنید.»