ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۲۲ مطلب با کلمه‌ی کلیدی «دیپ فیک» ثبت شده است

تحلیل


جعل عمیق و خلاء قوانین در کشور

شنبه, ۱۷ آذر ۱۴۰۳، ۰۴:۲۱ ب.ظ | ۰ نظر

یک وکیل دادگستری گفت: تدوین مقررات جامع و اجرای دقیق آن‌ها، نه‌تنها به حفاظت از حقوق شهروندان کمک می‌کند، بلکه اعتماد عمومی به نظام حقوقی و اجتماعی را نیز تقویت خواهد کرد.

به گزارش خبرنگار مهر، دیپ‌فیک یا تکنولوژی همانندسازی صوتی تصویری غیرواقعی، یک فناوری پیچیده و تقریباً جدید مبتنی بر هوش مصنوعی است. این فناوری با استفاده از الگوریتم‌های یادگیری عمیق (Deep Learning) و فناوری هوش مصنوعی این امکان را به کاربران می‌دهد تا از صدا و تصاویر واقعی، صدا و تصاویری غیرواقعی بسازد و محتوایی تولید کند که امکان تشخیص غیرواقعی بودن آن بسیار سخت و حتی غیرممکن است. با پیشرفت این فناوری احتمال سوءاستفاده و کلاهبرداری از آن توسط مجرمان و جرایم سایبری نیز افزایش پیدا کرده است.

در همین راستا، شهرام مختاری وکیل پایه یک دادگستری در گفتگو با خبرنگار مهر درباره فناوری‌های نوین و موضوعات حقوقی اظهار کرد: فناوری ایجاد محتوا جعلی هوشمند (Deepfake) یکی از پیشرفت‌های نوین در عرصه فناوری است که قابلیت بازسازی تصاویر، ویدئوها و حتی صداهای افراد را دارد. شاید این فناوری در زمینه‌هایی مانند سینما، بازی‌های رایانه‌ای و آموزش به‌عنوان ابزاری خلاقانه کاربرد دارد، اما در صورت استفاده نادرست، تهدیدی جدی برای حریم خصوصی، امنیت عمومی و حیثیت افراد محسوب می‌شود. به همین دلیل، نیاز به بررسی ابعاد حقوقی و تنظیم مقررات دقیق برای مواجهه با آثار منفی آن احساس می‌شود.

چالش‌های حقوقی فناوری‌های نوین

وی ادامه داد: یکی از چالش‌های عمده این فناوری، توانایی تولید محتوای جعلی برای تخریب شخصیت‌ها یا جعل هویت افراد است. انتشار ویدئویی که شخصی سرشناس را در حال انجام اعمال غیراخلاقی یا بیان اظهارات نادرست نشان می‌دهد، می‌تواند به حیثیت فرد لطمه بزند و پیامدهای اجتماعی یا سیاسی گسترده‌ای ایجاد کند. ماده ۶۹۸ قانون مجازات اسلامی به جرم‌انگاری نشر اکاذیب پرداخته و هرگونه انتشار اطلاعات نادرست با هدف تخریب حیثیت یا تشویش اذهان عمومی را ممنوع کرده است. به عنوان مثال، اگر ویدئویی جعلی از یک مقام رسمی منتشر شود که اظهارات حساس و نادرستی به او نسبت دهد، می‌تواند باعث ایجاد بحران‌های سیاسی یا اجتماعی شود.

این وکیل دادگستری گفت: در حوزه حریم خصوصی، استفاده از چهره، صدا یا تصاویر افراد بدون رضایت آن‌ها نقض آشکار حقوق شهروندان محسوب می‌شود. اصل ۲۲ قانون اساسی ایران صراحتاً حمایت از حیثیت و حقوق افراد را تضمین می‌کند. همچنین، ماده ۱۶ قانون جرایم رایانه‌ای استفاده غیرمجاز از اطلاعات شخصی را جرم‌انگاری کرده است. اگر تغییر محتوای بصری یا صوتی افراد موجب تخریب حیثیت آنان شود، ماده ۱۷ همین قانون امکان برخورد قانونی را فراهم می‌آورد.

وی افزود: از دیگر نگرانی‌های مرتبط با این فناوری، امکان استفاده از آن برای تهدید و اخاذی است. طبق ماده ۶۶۹ قانون مجازات اسلامی، تهدید افراد به افشای اطلاعات حتی جعلی جرم تلقی می‌شود. اگر شخصی با ارسال ویدئویی جعلی، فردی را تهدید به انتشار محتوا کند و از او طلب پول یا اطلاعات شخصی کند، این عمل نقض قانون است و قابلیت پیگرد دارد.

 

خلأهای قانونی در مواجهه با فناوری‌های نوین

مختاری بیان کرد: قوانین فعلی کشور ما از برخی ظرفیت‌ها برای برخورد با این فناوری را دارند، اما این مقررات مستقیماً برای مسائل پیچیده ناشی از فناوری‌های پیشرفته تدوین نشده‌اند. به طور مثال، تشخیص محتوای جعلی تولیدشده نیازمند ابزارهای تخصصی و دانش فنی است که در قوانین به آن اشاره‌ای نشده است. همچنین، هیچ سازوکاری برای نظارت بر تولیدکنندگان محتوا یا الزام آن‌ها به ثبت هویت در پلتفرم‌های دیجیتال وجود ندارد.

راهکارهای پیشنهادی

وی گفت: برای مواجهه با پیامدهای حقوقی و اجتماعی فناوری ایجاد محتوا جعلی هوشمند، تدوین «مقررات جامع و شفاف» ضروری است. در ابتدا لازم است تعریف دقیق و قانونی از این فناوری و مصادیق سوءاستفاده از آن ارائه شود تا مبنایی روشن برای اعمال قانون فراهم شود. جرم‌انگاری سوءاستفاده‌هایی مانند جعل هویت، نشر اکاذیب، تهدید و نقض حریم خصوصی باید به‌طور خاص در قوانین پیش‌بینی شود. همچنین، پلتفرم‌های دیجیتال و رسانه‌های اجتماعی باید ملزم شوند که از فناوری‌های پیشرفته برای شناسایی و تشخیص محتوای جعلی استفاده کنند و در صورت شناسایی چنین محتواهایی، سازوکارهایی برای حذف فوری آن‌ها ایجاد شود.

این وکیل دادگستری اظهار کرد: همچنین تدوین قوانینی که تولیدکنندگان و کاربران این فناوری را ملزم به ثبت هویت و پاسخ‌گویی کند، ضروری است. آموزش و آگاهی‌بخشی به عموم مردم در مورد ماهیت این فناوری و خطرات بالقوه آن، به‌ویژه از طریق رسانه‌ها و نهادهای آموزشی، می‌تواند نقش مهمی در کاهش آسیب‌های اجتماعی و حقوقی ناشی از آن ایفا کند. در نهایت، حمایت از توسعه فناوری‌های بومی برای تشخیص فناوری بازسازی جعلی هوشمند و تقویت همکاری بین‌المللی در مبارزه با سوءاستفاده‌های مرتبط با آن، از دیگر اقدامات ضروری است که باید در دستور کار قرار گیرد.

نتیجه‌گیری

مختاری در پایان گفت: فناوری ایجاد محتوا جعلی هوشمند (Deepfake)، شاید در حوزه‌های هنری، آموزشی و علمی کاربردهای مثبت دارد، اما سوءاستفاده از آن می‌تواند پیامدهای مخربی بر حریم خصوصی، امنیت عمومی و اعتماد اجتماعی داشته باشد. قوانین موجود در ایران ظرفیت‌هایی برای مقابله با این فناوری دارند، اما برای مقابله مؤثر با ابعاد پیچیده آن کافی نیستند. تدوین مقررات جامع و اجرای دقیق آن‌ها، نه‌تنها به حفاظت از حقوق شهروندان کمک می‌کند، بلکه اعتماد عمومی به نظام حقوقی و اجتماعی را نیز تقویت خواهد کرد. این فناوری آزمونی برای پویایی نظام حقوقی در مواجهه با چالش‌های پیش رو در حوزه فناوری‌های نوین خواهد بود.

دیپ‌فیک به عنوان یک فناوری پیشرفته هوش مصنوعی، توانسته تصاویر و ویدیو‌هایی جعلی، اما واقعی‌نما تولید کند که تشخیص آنها را دشوار کرده است. با رشد حملات سایبری و کلاهبرداری دیجیتال، این فناوری به تهدیدی جدی برای امنیت اطلاعات و هویت افراد تبدیل شده است.

خبرگزاری میزان - مطمئناً در سال‌های اخیر، عکس‌ها و فیلم‌های بسیاری دیده‌اید که شکی نداشتید که کاملا واقعی است، اما با جست‌وجوی اخبار متوجه شدید که کاملا جعلی بوده؛ این جادوی فناوری دیپ‌فیک است.

در سال‌های اخیر، عکس‌ها و فیلم‌های جعلی بسیاری از افراد مشهور با استفاده از فناوری «دیپ‌فیک» ساخته و در فضای مجازی منتشر شده است و به دنبال آن بینندگان بدون توجه به واقعی بودن آن، فیلم‌ها و تصاویر منتشر شده را باور کرده و از طریق اشتراک‌گذاری، به انتشار بیشتر آن کمک کردند.

تصاویر و فیلم‌هایی که هیچ‌گونه انطباقی با حقیقت ندارند، اما آنقدر واقعی است که به‌سختی می‌توان متوجه جعلی بودن آن‌ها شد. بسیاری از سیاست‌مداران معروف همچون ترامپ و اوباما و بازیگران و سلبریتی‌ها و مدیران مطرح دنیای فناوری مانند تیلور سوییفت و مارک زاکربرگ، همگی از افرادی بودند که در چند سال اخیر به واسطه عکس‌ها و فیلم‌های جعلی یا سخنرانی‌های ساختگی، به‌نوعی درگیر این فناوری دردسرساز شده‌اند.

به نحوی که در فرایند برگزاری انتخابات ریاست‌جمهوری آمریکا، برخی شرکت‌های نرم‌افزاری بزرگ دنیا طرحی برای انجام اقدامات جدی‌تری در مبارزه با اخبار جعلی و دیپ‌فیک را در نظر گرفتند و حتی سازمان اطلاعات آمریکا (FBI) نیز طی بیانیه‌ای درباره ویدئو‌هایی که با استفاده از دیپ‌فیک ساخته شد و پیش از برگزاری انتخابات در فضای مجازی منتشر شد، هشدار داده بود.

دیپ فیک چیست؟

دیپ فیک (DeepFake) یک تکنولوژی تقریبا جدید در حوزه هوش مصنوعی است. اصطلاح «دیپ فیک» یا «جعل عمیق» از ترکیب دو واژه Deep به معنای عمیق و Fake به معنای جعلی و دروغین ساخته شده است.

سال ۲۰۱۴ میلادی شخصی به‌نام یان گودفلو (Ian Goodfellow)؛ یکی از پژوهشگران حوزه یادگیری ژرف و هوش مصنوعی، سیستم شبکه مولد تخاصمی (Generative Adversarial Network به اختصار GAN) شامل دو مدل مولد و متمایزگر را، به دنیای تکنولوژی معرفی کرد؛ شبکه‌های رقابتی مولد به‌عنوان ابزاری در سیستم‌های هوش مصنوعی برای تولید عکس‌ها و ویدیو‌های ساختگی (که در حال حاضر دیپ‌فیک نامیده می‌شود)، به کار می‌روند.

وقتی تکنولوژی مرز واقعیت و دروغ را از بین می‌برد / حملات دیپ فیک هر پنج دقیقه یکبار اتفاق می‌افتد

این کشف جدید پس از سه سال، توسط فردی در ساخت یک ویدئو به کار گرفته شد و کاربری که این فناوری را در سال ۲۰۱۷، استفاده کرد نام آن ویدئو را «دیپ‌فیک» گذاشت و ژانر جدیدی با نام «دیپ‌فیک» خلق شد.

به این ترتیب، فناوری هوش مصنوعی مرز‌های تکنولوژی را در حوزه «جعل» بسیار پیش برد و اگر در گذشته امکان داشت تنها یک عکس، توسط نرم‌افزار‌های گرافیکی دستکاری شود و چیزی خلاف واقع یا به قول معروف فتوشاپی، به بیننده ارائه شود، امروزه فناوری خطرناکتری ایجاد شد که می‌تواند چهره و صدای افراد را به‌طرز شگفت‌آوری جابه جا و یا تقلید کند و در قالب ویدیو‌های باورپذیر منتشر کند.

فناوری دیپ‌فیک می‌تواند بر مبنای هوش مصنوعی، تصاویر و ویدیو‌های جعلی، اما «واقعی‌نما» تولید کند و هر فردی را تحت تاثیر خود قرار دهد.

دیپ فیک‌ها با بهره‌گیری از یادگیری ژرف (Deep Learning) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند و نتیجه محاسبات پیچیده‌ای هستند که می‌توانند به‌عنوان مثال از دو منبع تصویری مجزا، یک ویدیوی جعلی جدید بسازند، این دستکاری تنها به ویدیو خلاصه نمی‌شود و با استفاده از آن می‌توان صدا را هم جعل کرد به نحوی که شخصی جمله‌ای را در یک فیلم بگوید که هیچ‌گاه در واقعیت نگفته است.

با وجود اینکه در سال‌های اخیر، بر سواد رسانه‌ای و توجه به «سند» و «واقعیت» برای پرهیز از فریب خوردن با محتوا‌های جعلی تاکید شده، اما با پیشرفت این فناوری، به نوعی سند‌ها و فکت‌های جعلی تولید شده است و این امر گاهی تشخیص حقیقت را غیرممکن کرده است که موضوعی بسیار خطرناک است.

افزایش کلاهبرداری و جرایم سایبری با استفاده از هوش مصنوعی و دیپ‌فیک

از آنجا که مجرمان سایبری با پیشرفت راه‌های امنیتی در فضای دیجیتال، به تطبیق تکنیک‌ها و روش‌های خود برای یافتن راه‌های جدید ادامه می‌دهند و به دنبال کشف روش‌های جدیدتری هستند، کلاهبرداری با کمک هوش مصنوعی در سطح جهانی به‌طور فزاینده‌ای در حال رشد است.

تحقیقات نشان می‌دهد، در سال ۲۰۴۴ برای اولین بار، جعل اسناد دیجیتال از جعل اسناد فیزیکی، بیشتر شده است و جعل دیجیتال ۵۷ درصد از کل تقلب در اسناد را به خود اختصاص داد.

طبق تحقیقات جهانی، در سال ۲۰۲۴ هر پنج دقیقه یک حمله دیپ‌فیک اتفاق می‌افتد، و جعل اسناد دیجیتال ۲۴۴ درصد نسبت به سال قبل افزایش پیدا کرده است.

این تحقیقات نشان‌دهنده افزایش ۲۴۴ درصدی جعل اسناد دیجیتال در سال ۲۰۲۴ نسبت به سال ۲۰۲۳ و افزایش ۱۶۰۰ درصدی نسبت به سال ۲۰۲۱ است که در آن سال تقریباً تمام اسناد تقلبی جعلی، اسناد فیزیکی بودند.

با افزایش روش‌های کلاهبرداری به کمک هوش مصنوعی، کلاهبرداران اکنون می‌توانند از حملات پیچیده‌تری در مورد اسناد، به ویژه کارت‌های شناسایی (۴۰.۸ ٪ از حملات در سطح جهانی) استفاده کنند.

کلاهبرداران سایبری از پلتفرم‌های «X as a service» (هر نوع سرویسی که بتوان در محیط اَبر و از هر جای دنیا و در لحظه ارائه کرد، مانند خدمات زیرساخت و نرم افزارها) برای فیشینگ، کلاهبرداری و باج‌افزار استفاده می‌کنند.

اشتراک‌گذاری دانش «best practices» (روال مطلوب: روش یا تکنیکی که منجر به نتایج بهتری نسبت به روش‌های دیگر شده و به‌دلیل اینکه به‌طور عام توسط گروهی از افراد خبره یک رشته یا موضوع پذیرفته شده، به‌عنوان یک شاخص استفاده می‌شود.) و استفاده از ابزار‌های هوش مصنوعی مولد GenAI (نوعی از هوش مصنوعی که محتوای جدیدی مانند متن، تصاویر، فیلم و صدا تولید می‌کند) ایجاد حملات جعل دیجیتال و حملات تزریقی (Injection) پیچیده را تسهیل می‌کند.

در یک حمله از نوع تزریقی، مهاجم یک برنامه با ورودی مشکوک را تحت تأثیر قرار می‌دهد، به این صورت که مفسّر وب این ورودی را به‌عنوان بخشی از یک دستور پردازش می‌کند و نحوه اجرای آن نرم افزار را تغییر می‌دهد.

حملات تزریقی، قدیمی‌ترین و مضرترین حملات علیه برنامه‌های کاربردی وب هستند، این حملات ممکن است منجر به از دست دادن داده‌ها، از بین رفتن یکپارچگی داده‌ها، سرقت داده‌ها، انکار سرویس و به خطر افتادن کلی سیستم شود، معمولاً اصلی‌ترین علت آسیب‌پذیری از طریق حملات تزریقی اعتبار سنجی ناکافی ورودی کاربران است.

افزایش کلاهبرداران آماتور و غیرسازمان‌یافته

هرچند از لحاظ تاریخی، بزرگترین تهدید‌ها از طریق حلقه‌های کلاهبرداری سازمان‌یافته بوده است. اما با توجه به تحقیقات انجام شده، احتمالاً با پیشرفت تکنولوژی در زمینه هوش مصنوعی، تعداد کلاهبرداران آماتور و مجرمان غیرسازمان‌یافته افزایش پیدا می‌کنند، که این افراد هم حجم حملات و هم تعداد حملاتی که از تکنیک‌های پیچیده استفاده می‌کنند، را افزایش می‌دهند.

دیپ‌فیک، به این دلیل مورد توجه سازمان‌های جهانی قرار گرفته است، که ترفند‌های کلاهبرداری در فضای مجازی مانند فیشینگ، که تشخیص آن‌ها نسبتاً راحت است، به‌سرعت جای خود را به دیپ‌فیک‌های بیش از حد واقعی و هویت‌های مصنوعی تولید شده توسط هوش مصنوعی می‌دهد.

افزایش نرم‌افزار‌های تعویض چهره و ابزار‌های GenAI به کلاهبرداران این امکان را می‌دهد تا حملات کلاهبرداری بیومتریک (جعل هویت اشخاص) را بسیار باورپذیر انجام دهند. ظرفیت استفاده مخرب از این فناوری بسیار گسترده است و شامل افتتاح حساب‌های تقلبی، تصاحب حساب، کلاهبرداری‌های فیشینگ و کمپین‌های اطلاعات نادرست می‌شود.

حوزه‌های مالی؛ هدف اصلی مجرمان

سه هدف اصلی مجرمان در سطح جهان (سال ۲۰۲۴) همگی مربوط به خدمات مالی در سه حوزه رمزارزی، بانکی و بانک‌های سنتی بود، به‌طوری که تلاش برای کلاهبرداری در حوزه ارز‌های دیجیتال تقریباً دو برابر تعداد تلاش‌ها در مقایسه با سایر حوزه‌ها بود.

پلتفرم‌های کریپتو (رمزارزی) بالاترین آمار در زمینه تلاش برای کلاهبرداری را به خود اختصاص داده‌اند که نسبت به سال گذشته ۵۰ درصد افزایش یافته و از ۶.۴ درصد در سال ۲۰۲۳ به ۹.۵ درصد در سال ۲۰۲۴ رسیده است. این موضوع می‌تواند به دلیل رسیدن رمزارز‌ها به بالاترین قیمت خود در سال ۲۰۲۴ باشد و این موضوع، فعالیت در زمینه رمزارز‌ها را برای کلاهبرداران بسیار جذاب کرده است.

بنابراین، تغییرات بسیاری که در چشم‌انداز کلاهبرداری جهانی، از طریق افزایش قابل توجه حملات پیشرفته و مبتنی بر هوش مصنوعی ایجاد شده است، هشداری است که همه مدیران کسب‌وکار‌ها و کاربران باید آن را جدی بگیرند.

آخرین اطلاعات و داده‌ها نیز بر این روند هشداردهنده تأکید می‌کند و نشان می‌دهد که کلاهبرداران چگونه به سرعت در حال تکمیل و بهبود روش‌ها و تکنیک‌های خود هستند. از آنجا که این تهدید‌های فراگیر، دولت و افراد را به طور یکسان تحت تأثیر قرار می‌دهند، تیم‌های امنیتی برای پیش افتادن از کلاهبرداران، باید استراتژی‌های خود را دائما به روزرسانی کنند و با روش‌های جدید تطبیق دهند، و نظارت بر این تهدید‌ها را در اولویت قرار دهند و سازمان‌های خود را برای رویارویی با این واقعیت جدید آماده کنند. این موضوع امری اجتناب‌ناپذیر است که راه فراری از آن وجود ندارد.

چگونه دیپ فیک را تشخیص دهیم؟

هرچند توجه رسانه‌ها و کاربران اینترنتی به پدیده «دیپ‌فیک» کم‌رنگ شده است اما، تکنیک دیپ‌فیک همچنان در فهرست تکنولوژی‌های شگفت‌آور قرار دارد و پژوهشگران بسیاری در حال بهبود روش‌های آن هستند.

برای کشف و جلوگیری از گسترش دیپ‌فیک نیز باید از هوش مصنوعی کمک گرفت. در حال حاضر، راه‌هایی وجود دارد تا یک عکس یا ویدیوی جعلی را تشخیص داد. دقت در نشانه‌های زیر می‌تواند به تشخیص یک تصویر یا ویدئوی جعلی کمک می‌کند:

  • وجود ناهماهنگی در پوست یا موی شخص؛ مخصوصا جایی که تار‌های مو در حاشیه عکس قابل مشاهده است. 
  • دقت به لبه صورت‌های جابه‌جا شده؛ تکنولوژی دیپ فیک هنوز نمی‌تواند لبه‌های چهره را بدون نقص جابه‌جا کند و در طول یک ویدیو، هنگام حرکت سر سوژه، احتمال زیادی دارد که بشود دیپ فیک را تشخیص داد.
  • دقت در نورپردازی تصویر؛ جواهرات و دندان‌هایی که بازسازی بدی دارند و افکت‌های نورپردازی عجیبی مانند انعکاس نور در چشم، می‌تواند دیپ‌فیک را لو دهد.
  • دقت به نور عکس یا فیلم؛ اکثر الگوریتم‌های دیپ‌فیک نور فیلمی را که به‌عنوان مدل برای فیلم جعلی مورد استفاده قرار گرفته حفظ می‌کند، که با نورپردازی در ویدیوی هدف مطابقت ندارد.
  • عدم تطابق صدای ویدیو با حرکات دهان شخص؛ مخصوصا اگر صدای اصلی فیلم جعلی با دقت دستکاری و تنظیم نشده باشد.

شرکت اوپن ای آی در هفته منتهی به انتخابات ریاست جمهوری هزاران درخواست برای تولید تصاویر دیپ فیک از کاندیداهای ریاست جمهور را رد کرد.
به گزارش خبرگزاری مهر به نقل از بیزینس اینسایدر، این شرکت هوش مصنوعی در اوایل سال جاری اعلام کرد محصولات آن دارای حفاظ هایی برای جلوگیری از سواستفاده هایی مانند تولید دیپ فیک ها یا چت بات هایی با قابلیت جعل هویت کاندیداهای ریاست جمهوری است.

این خبر در بحبوحه نگرانی ها درباره آنکه هوش مصنوعی طی کمپین انتخاباتی ویرانی به بار می آورد و دیپ فیک و نظریه های توطئه ای تولید می کند که کاربران آنها را گسترش می دهد، منتشر شده است. در ژانویه سال جاری میلادی ساکنان ایالت نیو همپشایر تماس های رباتیک دیپ فیکی از جو بایدن رییس جمهور وقت آمریکا دریافت کردند.

شرکت اپن ای آی اعلام کرد چت جی پی تی در ماه قبل از برگزاری انتخابات ریاست جمهوری آمریکا حدود ۲۵۰ هزار درخواست برای تولید تصاویری از کاندیداهای با استفاده از DALL-E (ابزار هوش مصنوعی تولید کننده اثر هنری) دریافت کرده است.

در پست وبلاگی شرکت آمده است: در ماه منتهی به انتخابات ما تخمین زدیم چت جی پی تی بیش از ۲۵۰ هزار درخواست برای تولید تصاویر DALL-E از دونالد ترامپ، کامالا هریس، جوبایدن، جی دی ونس(معاون ریاست جمهوری ترامپ) و تیم والز(فرماندار ایالت مینه سوتا و معاون هریس) دریافت کرده است.

اوپن ای آی قبلا اعلام کرده بود به چت جی پی تی دستور می دهد تا سوالات لجستیک درباره رای گیری کاربران را به وب سایت CanlVote.org هدایت کند. این سایت اطلاع رسانی درباره رای گیری است.

چت جی پی تی همچنین در یک ماه پیش از انتخابات حدود یک میلیون پاسخ به کاربران داد و به آنها اعلام کرد تا به سایت مذکور مراجعه کنند. این چت بات هوش مصنوعی از اظهار نظر سیاسی درباره کاندیداهای ریاست جمهوری خودداری کرد. حال آنکه Gork AI، چت بات هوش مصنوعی ایلان ماسک درباره برنده شدن ایلان ماسک ابراز هیجان می کرد.

فیک‌نیوزها راهزنان حقیقت!

سه شنبه, ۱۷ مهر ۱۴۰۳، ۰۳:۳۴ ب.ظ | ۰ نظر

در حال‌حاضر انبوه اطلاعات جعلی و مغرضانه در فضای‌مجازی و مرز غیرقابل تشخیص آنها با واقعیت، شرایط پیچیده‌ای را رقم زده است.

احتمالا برای شما هم پیش آمده که خبری را از کسی شنیده یا به صورت آنلاین مشاهده کرده باشید و به واسطه آن خبر، نگران، ترسیده و خشمگین شده‌اید یا احساسات دیگری را تجربه کرده‌اید. اما پس از مدتی متوجه شده‌اید که این خبر سندیت نداشته و به بیان دیگر، گول خورده‌اید؛ به این قبیل اخبار که بدون هیچ مدرک مشخصی باب می‌شوند و جمعیت زیادی را با خود همراه می‌کنند، اما منبع مشخصی ندارند و هیچ‌کس نمی‌داند که از کجا آمده‌اند، فیک‌نیوز گفته می‌شود.

اخبار جعلی یا فیک‌نیوز، مسأله جدی دوران ماست. این روز‌ها ما بیش از هر زمانی در معرض اخبار بی‌منبع و ناموثق هستیم و اگر هوشیار نباشیم، هم به‌راحتی باورشان می‌کنیم و هم به دیگران انتقال می‌دهیم. رواج انتشار اطلاعات نادرست در شبکه‌های اجتماعی مانند فیسبوک و ایکس (توئیتر سابق) و گسترش دیپ‌فیک‌های تولیدشده توسط هوش‌مصنوعی، این روز‌ها بی‌رحمانه بر حقایق و واقعیت‌ها می‌تازند و به تعبیر علیرضا چابکرو، استاد دانشگاه تهران بحران‌های اجتماعی را رقم می‌زنند.
 به زبان ساده فیک‌نیوز دروغ‌هایی هستند که آگاهانه و عامدانه ساخته شده و در قالب خبر منتشر می‌شوند تا مردم را گمراه کنند. 
 
بی‌رحم مثل فضای‌مجازی!
سال‌هاست که شبکه‌های اجتماعی در انتشار گسترده اخبار و اطلاعات از جمله اخبار جعلی بسیار موثر بوده‌اند. آمار‌ها نشان می‌دهند که در حال‌حاضر نزدیک به ۴.۹میلیارد نفر در دنیا کاربر شبکه‌های اجتماعی هستند که روزانه درصد زیادی از این افراد اطلاعات نادرست را در شبکه‌های اجتماعی می‌بینند و منتشر می‌کنند. یک نظرسنجی در دسامبر ۲۰۲۰ (آذرماه ۱۳۹۹) نشان داد ۳۸.۲ درصد از مخاطبان اخبار در آمریکا، ناخواسته اخبار جعلی یا اطلاعات اشتباه را در شبکه‌های اجتماعی به اشتراک گذاشته‌اند. علیرضا چابکرو، پژوهشگر ارتباطات و رسانه و استاد دانشگاه تهران در گفتگو با جام‌جم با بیان این‌که شبکه‌های اجتماعی، شبکه‌های قابل‌اتکایی نیستند و صحت و درستی اخبار منتشر‌شده در آنها مشخص نیست، می‌گوید: این فضا به‌شدت بی‌رحم است، زیرا بسیاری از صفحات و ناشران محتوا در شبکه‌های اجتماعی حتی چهارچوب‌های رسانه‌ای را رعایت نمی‌کنند.

 وی با اشاره به این‌که در شبکه‌های اجتماعی قابلیت پیگیری درست و غلط اخبار به‌طور مستمر وجود ندارد، می‌افزاید: در خارج از این شبکه‌ها اگر سایتی مطلبی کذب و دروغ منتشر کند، به‌راحتی می‌توان آن را پیگیری کرد، اما در شبکه‌های اجتماعی به‌دلیل انبوه محتوا و اخبار فیک و نادرست نمی‌توان همه آنها را پیگیری و شناسایی کرد. البته اگر وضعیت خیلی بغرنج شود، قوه قضاییه و سازمان‌های امنیتی به آن ورود می‌کنند، اما معمولا در شرایط بحرانی و بمباران خبری، این وضعیت تا حد زیادی از کنترل خارج می‌شود.
 
طعنه اخبار جعلی به عقب‌ماندگی رسانه‌ها 
در حال‌حاضر انبوه اطلاعات جعلی و مغرضانه در فضای‌مجازی و مرز غیرقابل تشخیص آنها با واقعیت، شرایط پیچیده‌ای را رقم زده است. استاد دانشگاه تهران در خصوص ساماندهی این وضعیت می‌گوید: باید سازمان‌های رسمی رسانه‌ای مثل خبرگزاری‌ها و روزنامه‌ها علاوه‌بر انجام رسالت سازمانی و صنفی خود، به محتوا‌های منتشرشده در شبکه‌های مجازی هم توجه داشته باشند و سرعت خود را در اطلاع‌رسانی نسبت به اخبار جعلی وایرال شده بالا ببرند. متاسفانه اکنون رسانه‌های ما از بسیاری از اخبار و شایعات عقب هستند، چیزی هم که عقب باشد نمی‌تواند با اخبار جعلی مقابله کند. علاوه‌بر آن ما باید یک سازمان استاندارد خبری ایجاد کنیم تا مردم بتوانند به آن رجوع کنند و درستی اخبار را از آن پیگیری کنند، البته نکته قابل‌توجه این است که این سازمان برای جلب اعتماد مردم نباید دولتی یا وابسته به جای خاصی باشد یا درمورد مسائل سوگیری کند. 
 
عمقی که به سطح رنگ باخته!
چابکرو در خصوص راهکار غرق‌نشدن در انبوه اخبار جعلی و آسیب‌های آن می‌گوید: رسانه‌ها باید قدرت تجزیه و تحلیل افراد را بالا ببرند؛ چراکه یکی از ویژگی‌های فضای‌مجازی این است که مردم را بسیار سطحی نگه‌می‌دارند. به همین دلیل است که فالوئر‌های یک فودبلاگر بسیار بیشتر از یک صفحه تحلیلی و پژوهشی است! وی می‌افزاید: مسئولان باید هنرمندانه کاری کنند که یک لایه عمیق‌تر در ذهن افراد نسبت به مسائل مختلف شکل دهند. ما باید یک همت قوی روی آموزش‌وپرورش بگذاریم و سعی کنیم سواد رسانه‌ای را از دوران کودکی به افراد یاد بدهیم. 

 

نظام‌نامه هوش‌مصنوعی تدوین نکنیم، بیچاره خواهیم شد!
این روز‌ها فناوری دیپ‌فیک از هوش‌مصنوعی برای تولید‌محتوای صوتی وتصویری دستکاری‌شده استفاده می‌کند؛ این محتوا به‌گونه‌ای است که واقعی به نظر می‌رسد. توانایی دیپ‌فیک‌ها در انتشار اطلاعات نادرست، چالش‌های جدی ایجاد می‌کند و می‌تواند تاثیر قابل‌توجهی در انتخابات داشته باشد. چابکرو در این‌باره می‌گوید: ما باید برای پدیده‌هایی مثل هوش‌مصنوعی که تاثیرات عمیق و شگرفی دارند، یک نظام‌نامه تدوین کنیم؛ اگر این کار انجام نشود بیچاره خواهیم شد! همان‌طور که پزشکان در نظام‌نامه خود شروطی بابت حق طبابت دارند، آن شخصی هم که هوش‌مصنوعی را ایجاد و استفاده می‌کند نیز باید یک چهارچوب را رعایت کند. این استاد دانشگاه تهران ادامه می‌دهد: ما نمی‌توانیم جلوی ورود تکنولوژی و هوش‌مصنوعی را بگیریم، اما باید آن را در یک قیدو‌بند و چهارچوب قرار دهیم. مثلا فردی که هوش‌مصنوعی می‌نویسد اگر بخواهد با استفاده از این تکنولوژی یک صدا یا تصویر فیک ایجاد کند در واقع خلاف آن نظام نامه عمل و آن را باطل کرده است. مطمئن باشید در آینده اثرات برنامه‌نویسان در جامعه بیش از پزشکان خواهد بود!

منبع: روزنامه جام جم

سردرگمی اروپا با رواج اخبار جعلی

شنبه, ۱۳ مرداد ۱۴۰۳، ۱۲:۵۳ ب.ظ | ۰ نظر

سمیه مهدوی‌پیام - تیفانی هسو، که گزارشگر حوزه بررسی اطلاعات نادرست و پیامدهای آن است و بیش از دو دهه، به عنوان خبرنگار فعالیت می‌کند در گزارشی در نیویورک تایمز به بررسی مصائب جدی و همچنان لاینحل اتحادیه اروپا با رواج اخبار و اطلاعات جعلی و نادرست پرداخت و نوشت:

افزایش فاجعه‌بار کلاه‌برداری‌های دیپ‌فیک

چهارشنبه, ۱۹ ارديبهشت ۱۴۰۳، ۰۱:۲۸ ب.ظ | ۰ نظر

آخرین گزارش سالانه ارائه‌دهنده تأیید هویت Sumsub نشان می‌دهد: موارد کلاه‌برداری هویت مرتبط با دیپ‌فیک، بین سال‌های 2022 تا 2023 در بسیاری از کشورهای جهان به‌شدت افزایش یافته است؛ مثلاً تعداد تلاش‌های کلاه‌برداری به‌این‌روش در «فیلیپین» در بازه یک‌ساله یادشده 4500‌درصد افزایش یافته؛ و پس‌ازآن، «ویتنام»، «ایالات‌متحده» و «بلژیک» قرار دارند.

به گزارش سایه باتوجه‌به‌اینکه قابلیت‌های «هوش مصنوعی» روزبه‌روز بیشتر می‌شود، تلاش‌های کلاه‌برداری عمیق می‌توانند به مناطق دیگر نیز سرایت کنند.

«پاول گلدمن-کالایدین» (رئیس واحد تحقیقات هوش مصنوعی و یادگیری ماشینی Sumsub) می‌گوید: «در سال‌های اخیر شاهد بوده‌ایم که دیپ‌فیک‌ها بیشتر و بیشتر قانع‌کننده‌تر شده‌اند و این ادامه می‌یابد و به انواع جدیدی از فریب‌‌ها منشعب می‌شود؛ همان‌طورکه حالا در دیپ‌فیک‌های صوتی و تصویری دیده می‌شود».

در هشدار فوق‌الذکر؛ هم مصرف‌کنندگان و هم شرکت‌ها باید مراقب فریب مصنوعی بوده و به‌دنبال راه‌حل‌های چندلایه ضدِفریب بگردند.

یک نظرسنجی از 199 مرجع راهبرِ امنیت سایبری که در نشست سالانه «مجمع جهانی اقتصاد» (2023) شرکت کرده بودند، نشان داد که 46‌درصد از پاسخ‌دهندگان، بیشترین نگرانی را درمورد «پیشرفت قابلیت‌های خصمانه، فیشینگ، توسعه بدافزار و جعل عمیق» را به‌واسطه توسعه AI دارند.

این داده‌نما میزان افزایش کلاه‌برداری‌ها به‌واسطه دیپ‌فیک را (به‌درصد) طی بازه 2022 تا 2023 در جوامع مختلف نشان می‌دهد.

سعید میرشاهی - متا و سایر غول‌های فناوری برای همکاری مشترک با یکدیگر، قبل از انتخابات در بریتانیا، ایالات متحده و اتحادیه اروپا گردهم آمده‌اند تا از سوءاستفاده از هوش مصنوعی جلوگیری کنند.

هوش مصنوعی سلاح تولید اطلاعات جعلی شد

چهارشنبه, ۲۰ دی ۱۴۰۲، ۰۲:۱۳ ب.ظ | ۰ نظر

سمیه مهدی‌پیام – اکنون زمان آن رسیده که در برابر اطلاعات نادرست تولیدشده توسط هوش مصنوعی بایستیم.

چین در ماه ژانویه، اولین مجموعه مقررات خود را در مورد ویدئوهای جعل عمیق یا دیپ فیک منتشر می کند و از این طریق کنترل محتوای اینترنتی جعلی را افزایش می دهد.

به گزارش فارس به نقل از سی ان بی سی، دیپ فیک ها تصاویر یا ویدئوهایی هستند که به صورت مصنوعی تولید یا تغییر یافته اند و با استفاده از نوعی هوش مصنوعی ساخته می شوند. از این فناوری می توان برای تغییر یک ویدیوی موجود استفاده کرد، برای مثال با قرار دادن چهره یک سیاستمدار بر روی یک ویدیوی موجود یا حتی ایجاد سخنرانی جعلی تا دروغ پراکنی در فضای مجازی ساده تر شود.

نتیجه این کار انتشار ویدئوهای ساختگی است که به نظر می رسد واقعی هستند اما اینطور نیست. پکن قوانین خود را در این مورد در اوایل سال جاری اعلام کرد و آنها را در دسامبر نهایی کرد. این قوانین از 10 ژانویه اجرایی خواهند شد.

در اینجا برخی از مفاد این مقررات کلیدی آورده شده است:

- اگر قرار است از تصویر افراد در هر فناوری جعل عمیق استفاده شود، کاربران باید رضایت دهند.

- از خدمات جعل عمیق نمی توان برای انتشار اخبار جعلی استفاده کرد.

- در خدمات جعل عمیق باید هویت واقعی کاربران احراز شود.

- محتوای جعل عمیق باید با نوعی اعلان منتشر شود تا کاربران بدانند که تصویر یا ویدیوی اصلی با فناوری خاصی تغییر یافته است.

- تولید محتوای مغایر با قوانین موجود ممنوع است، و همچنین انتشار محتوایی که امنیت و منافع ملی را به خطر می اندازد، به وجهه ملی آسیب می رساند یا اقتصاد را مختل می کند، ممنوع است.

اداره قدرتمند فضای مجازی چین تنظیم کننده این قوانین است. از پایان سال 2020، چین به دنبال مدیریت غول‌های فناوری این کشور بوده و مقررات گسترده‌ای را در حوزه‌های مختلف از ضد انحصار تا حفاظت از داده‌ها وضع کرده است. اما این کشور همچنین به دنبال تنظیم فناوری های نوظهور بوده و در قوانین فنی خود از هر کشور دیگری فراتر رفته است.

چین به مقابله با «جعل عمیق» رفت

دوشنبه, ۲۱ آذر ۱۴۰۱، ۰۲:۵۸ ب.ظ | ۰ نظر

رگولاتور فضای سایبری چین اعلام کرده قوانین جدید این کشور برای ارائه دهندگان محتوا که داده‌های چهره و صدا را تغییر می‌دهند، از 10 ژانویه اجرایی می‌شود.

به گزارش فارس به نقل از رویترز، رگولاتور فضای سایبری چین گفته: قوانین جدید این کشور برای ارائه دهندگان محتوا که داده‌های چهره و صدا را تغییر می‌دهند، از 10 ژانویه 2023 (20 دی) اجرایی می‌شود. به نظر می رسد چین سعی دارد سختگیری های بیشتری را برای فناوری جعل عمیق و سرویس های آن اعمال کند.

قوانین اداره فضای سایبری چین (CAC) که روز یکشنبه منتشر شد، از افراد در برابر جعل هویت با جعل عمیق بدون رضایت آنها محافظت می‌کند.

اداره فضای سایبری چین گفت که این اقدام با هدف محدود کردن خطرات ناشی از فعالیت های ارائه شده توسط چنین پلتفرم هایی که از یادگیری عمیق یا واقعیت مجازی برای تغییر هرگونه محتوای آنلاین استفاده می کنند، انجام می شود.

گفتنی است که جعل عمیق فناوری است که می توان با استفاده از آن تصاویر را به گونه ای دستکاری کرد که عملاً از تصویر اصلی قابل تشخیص نیستند و به راحتی برای دستکاری یا اطلاعات نادرست استفاده می‌شوند.

شناسایی ویدئوهای جعل عمیق با ترفند ساده

يكشنبه, ۲۳ مرداد ۱۴۰۱، ۰۳:۳۶ ب.ظ | ۰ نظر

محققان یک روش ساده برای شناسایی تماس‌های ویدئویی مبتنی بر جعل عمیق یافته‌اند. در این روش تنها باید از تماس گیرنده بخواهید تا سرش را 90 درجه بچرخاند.

به گزارش فارس به نقل از نکست وب، پژوهشگران یک راه ساده و شگفت‌آور برای شناسایی تماس‌های ویدیویی جعل عمیق کشف کرده‌اند. تنها کافی است از فرد مظنون بخواهید سرش را به طرفین بچرخاند.

این ترفند طی هفته جاری توسط Metaphysic.ai، ابداع شد که یک استارت‌آپ مستقر در لندن است و قصد داشت با سوءاستفاده از شخصیت تام کروز برای تولید ویدئوهای جعل عمیق مقابله کند.

این شرکت از DeepFaceLive استفاده کرد که یک برنامه محبوب برای تولید تصاویر جعل عمیق ویدیویی و تبدیل یک داوطلب به افراد مشهور است.

بسیاری از چهره ها زمانی که مستقیم به جلو نگاه می کردند، دقیق و مشابه با افراد مورد تقلید بودند. اما هنگامی که چهره ها 90 درجه کامل چرخیدند، تصاویر مخدوش شدند و شناسایی کلاهبرداری با استفاده از نرم افزار جعل عمیق شد. به نظر می رسد کمبود داده برای تولید تصاویر افراد از دو طرف و نه روبرو عامل این مساله باشد. لذا ممکن است این روش مقابله با ویدئوهای جعل عمیق در آینده موثر نباشد.

با رشد سریع فناوری جعل عمیق یا «دیپ فیک» در جهان و ساخت ویدئوهای مختلف با کمک این فناوری، اکنون کارشناسان ابراز نگرانی کرده‌اند که این محتواها ممکن است زندگی افراد را به خطر بیندازد.

به گزارش فارس به نقل از البلد، بسیاری از کارشناسان نسبت به رشد سریع ویدئوهای جعل عمیق یا «دیپ فیک» هشدار می دهند. آنچه به عنوان فناوری جعل عمیق شناخته می شود، کپی های جعلی از چهره افراد است که کاملا طبیعی به نظر می رسد. در این ویدئوها از تکنیک های هوش مصنوعی برای تغییر چهره افراد استفاده می شود تا علاوه بر چهره، صدا نیز شبیه به واقعیت باشد.

سایت کانورزیشن درباره این فناوری نوشته که ویدئوهای دیپ فیک به طرز وحشتناکی در شبکه های اجتماعی، به ویژه تیک تاک در حال پخش شدن هستند. از جمله ویدئوهای افراد مشهوری مانند تام کروز، بازیگر و سران کشورها مانند اوباما، رئیس جمهور سابق ایالات متحده که تاکنون میلیون ها بازدید داشته است.

ساخت این ویدئوها ممکن است از جعل چهره شخصیت‌های معروف به افراد عادی برسد. کارشناسان نگرانند سازندگان این ویدئوها از آنها در کمپین‌های گمراه‌کننده، کلاهبرداری هویتی و افترا به افراد دیگر استفاده کنند. استفاده از این ویدئوها با چهره افراد عادی و سلبریتی‌ها منجر به اختلالات امنیتی و اجتماعی می شود.

اگرچه فناوری به کار رفته در این ویدئوها بسیار دقیق است و استفاده از آنها به قابلیت ها و ابزارهای بالایی نیاز دارد، اما به مرور زمان دسترسی به آن ها آسان شده و از سوی دیگر، برنامه هایی وجود دارند که می توان با آنها این نوع ویدئوها را ساخت.

این فناوری مشکلات بسیاری را به همراه دارد. استفاده از آن به‌عنوان اخبار جعلی و اطلاعات نادرست ، بی اعتبار کردن افراد مشهور یا حتی ساخت پورنوگرافی جعلی از کاربردهای خطرناک دیپ فیک است.

البته خطرناک ترین استفاده دیپ فیک، بدنام کردن افراد است. در سال 2019، یک شرکت نرم افزاری به این نتیجه رسید که 96 درصد از 14 هزار ویدئوی دیپ فیک دارای محتوای مستهجن بوده و برای ساخت آنها از برنامه های رایگان استفاده شده و انگیزه ساختشان نیز انتقام و باج گیری بوده است.

این فناوری همچنین برای کلاهبرداری مورد استفاده قرار می گیرد. در این مورد، پیام های ویدئویی به منظور درخواست پول از طرف یک همکار یا آشنای مورد اعتماد به دیگر کاربران ارسال می شود. در یک مطالعه تحقیقاتی مشخص شد که در سال 2020 کلاهبرداری هویت با استفاده از دیپ فیک 20 دلار هزینه برای موسسات مالی آمریکا در پی داشته است.

در سال 2019، فیس‌بوک به دلیل عدم حذف ویدئوی جعلی نانسی پلوسی، سیاستمدار و رئیس مجلس نمایندگان آمریکا مورد انتقاد قرار گرفت و در سال 2020، توییتر اشتراک‌گذاری این محتواها را که می‌توانست مردم را فریب دهد، گیج کند یا به آنها آسیب برساند، ممنوع کرد. البته تیک تاک نیز همین تصمیم را گرفته است.

دستورالعمل جدید اروپا برای مهار «دیپ فیک»

سه شنبه, ۲۴ خرداد ۱۴۰۱، ۰۲:۵۷ ب.ظ | ۰ نظر

طبق آپدیت آیین نامه اجرایی اتحادیه اروپا،گوگل، فیس بوک، توئیتر و دیگر شرکت های فناوری باید اقداماتی برای مقابله با دیپ فیلک و حساب های کاربری جعلی در پلتفرم شان انجام دهند.

به گزارش خبرگزاری مهر به نقل از رویترز، پیش بینی می شود کمیسیون اتحادیه اروپا آیین نامه به روزرسانی شده درباره اخبار جعلی را به عنوان بخشی از اقدامات خود برای مقابله با این پدیده، روز پنج شنبه اعلام کند.

این اقدام در سال ۲۰۱۸ میلادی به عنوان یک رویه داوطلبانه اعلام شد و اکنون به یک قانون تبدیل می شود و مسئولیت اجرای آن بر عهده رگولاتورها و امضا کنندگان قانون است.

قانون به روزرسانی شده مواردی مانند دیپ فیک و حساب های جعلی را کنترل می کند.

در سند مربوط به این دستورالعمل آمده است: امضا کنندگان باید با توجه به جدیدترین شواهد در مورد رفتارها و تاکتیک ها، تکنیک ها و رویه های (TTP) عوامل مخرب در خصوص هر فعالیتی برای دستکاری واقعیت در سرویس های شان سیاست های شفافی در پیش بگیرند و اجرا کنند.

محتواهای دیپ فیک در حقیقت نوعی جعل محتوای فراواقعی است که با روش های کامپیوتری ایجاد می شود و به خصوص هنگام استفاده در بستر سیاسی، نگرانی های زیادی را به وجود می آورد.

این دستورالعمل همچنین به قوانین سختگیرانه جدید اتحادیه اروپا به نام «قانون سرویس های دیجیتال» مرتبط است که در اوایل سال جاری مورد توافق ۲۷ کشور عضو اتحادیه اروپا قرار گرفت و بخشی از آن به مقابله با اخبار جعلی پرداخته است.

براساس قانون سرویس های دیجیتال، شرکت هایی که نتوانند مسئولیت های خود براساس این قوانین را انجام دهند با جریمه هایی تا ۶ درصد درآمد سالانه شان در سراسر جهان روبرو می شوند. شرکت ها پس از امضای دستورالعمل ۶ ماه فرصت دارند تا اقدامات لازم را اجرا کنند.

امضاکنندگان قانون باید اقداماتی برای مقابله با تبلیغاتی در پیش گیرند که حاوی اخبار جعلی هستند و شفافیت بیشتری درباره تبلیغات سیاسی فراهم کنند.

تیری برتون کمیسیونر اروپا در امور داخلی در این باره می گوید: قانون سرویس های دیجیتال زیرساخت حقوقی برای دستورالعمل مقابله با اخبار جعلی فراهم می کند که شامل تحریم هایی بازدارنده است.

فناوری «دیپ‌فیک» ترکیبی است از یادگیری عمیق و جعل که مرز بین حقیقت و دروغ در آن نامشخص است.

به گزارش آنا، هوش مصنوعی به‌سرعت در حال پیشرفت است و از این تکنولوژی در زمینه‌های مختلف برای اهداف بی‌شماری استفاده می‌شود. کیفیت و کارایی بسیاری از صنایع با استفاده از هوش مصنوعی بهبود پیدا کرده است. هوش مصنوعی دارای مزایا و معایب زیادی است. این طور نیست که همیشه تأثیر مثبت بر جامعه داشته باشد. گاهی‌ اوقات فناوری‌هایی ایجاد می‌شود که در مراحل بعد توسط مجرمان می‌تواند مورد سوءاستفاده قرار بگیرد.

فناوری دیپ‌فیک از آن دسته فناوری‌هایی است که بر جامعه می‌تواند اثرات مخربی داشته باشد. این برنامه‌های مبتنی‌ بر هوش مصنوعی به‌گونه‌ای آموزش داده می‌شود که چهره یک فرد را با چهره دیگری در تصویر یا ویدئو جایگزین می‌کنند. اغلب افراد مشهور و سیاستمدار قربانیان این فناوری هستند. در این گزارش توضیح می‌دهیم که این فناوری بر چه اساسی است و چه روش‌هایی برای تشخیص آن وجود دارد.

 

فناوری «دیپ‌فیک» چیست؟
کلمه دیپ‌فیک ترکیبی از دو کلمه عمیق و جعلی است. کلمه «دیپ» به فناوری هوش مصنوعی اشاره می‌کند که به‌عنوان یادگیری عمیق شناخته می‌شود. فناوری دیپ‌فیک در رسانه‌های مصنوعی برای ایجاد محتوای جعلی، جایگزینی یا ترکیب چهره‌ها، گفتار و دستکاری احساسات استفاده می‌شود. این کار برای تقلید دیجیتالی از عملی توسط شخص استفاده می‌شود که او مرتکب جرم نشده است. اولین کسانی‌که شروع به ایجاد این فناوری کردند در دهه ۹۰ توسط موسسات دانشگاهی انجام شد و بعدها توسط مخاطبان گسترده‌تری استفاده شد. این فناوری در فضای رسانه‌ای سر و صدای زیادی ایجاد کرده است.

نرم‌افزار دیپ‌فیک با استفاده از الگوریتم‌های یادگیری ماشینی ایجاد می‌شود. در واقع این فناوری از الگوریتم‌هایی استفاده می‌کند که می‌تواند محتوا را بر اساس ورودی داده تولید کند. در ابتدا این برنامه مقدار زیادی داده دریافت می‌کند که سپس از آن‌ها برای یادگیری ایجاد داده‌های جدید خود استفاده می‌کند.


«دیپ‌فیک» می‌تواند خطرناک باشد
دیپ‌فیک به‌عنوان یکی از خطرناک‌ترین کاربردهای هوش مصنوعی در سراسر جهان شناخته شده است. از این فناوری در دنیای واقعی بیش‌تر برای هدف کلاهبرداری و بی‌اعتبار کردن افراد استفاده می‌شود. برای اولین بار در بریتانیا از این فناوری در جهت منفی استفاده کردند. کلاهبرداران با مدیرعامل یک شرکت انرژی مستقر در بریتانیا تماس برقرار کردند و با استفاده از این فناوری صدای رئیس آلمان را نیز جعل کرده و به او دستور دادند که مبلغ ۲۲۰ هزار یورو به حساب بانکی شخص ثالث منتقل کند.

این فناوری به اندازه‌ای دقیق است که امکان دارد افراد نتوانند نتیجه نهایی جعلی را از واقعیت تشخیص دهند. این فناوری می‌تواند اعتبار یک فرد را به‌شدت تضعیف کند. کلاهبردان از این فناوری به عنوان یک سلاح عالی استفاده می‌کنند. دانشمندان در تلاش هستند تا سیستمی ایجاد کنند و بتوانند واقعیت را از دروغ تشخیص دهند، اما متأسفانه ایجاد چنین سیستمی کمی زمان‌بر است. استفاده از این برنامه نیاز به آموزش دارد و افراد بدون آگاهی اولیه نمی‌توانند از آن استفاده کنند.

 

تأثیر فناوری وحشتناک بر جامعه چیست؟
از فناوری همان‌طور که می‌توان برای پیشرفت جامعه و ترقی کشور استفاده کرد، در زمینه‌های منفی نیز کاربرد دارد. این فناوری اگر به دست افراد نادرست بیفتد موجب هرج‌ومرج در جامعه می‌شود و اطمینان به‌طور کامل در میان مردم از بین می‌رود. همچنین در موارد متعدد ویدئوهای مستهجن دیپ‌فیک با با حضور افراد مشهور در اینترنت پدیدار شد. این فناوری چندین رئیس‌جمهور ایالات متحده را نیز گرفتار کرده است. اخبار جعلی منتشر شده در اینترنت می‌تواند اعتبار یک کشور را زیر سوال ببرد و منجر به بی‌اعتمادی در جامعه شود.

فناوری دیپ‌فیک در چند سال اخیر بسیار گسترش پیدا کرده است، اما قوانین مرتبط با این فناوری هنوز چندان مشخص نیست. در بسیاری از کشورها هنوز هیچ قانونی مبنی‌ بر غیرقانونی بودن آن وجود ندارد. تنها کشوری که برای استفاده از این فناوری قانون خاصی دارد، کشور چین است. اداره فضای مجازی کشور چین اعلام کرده است؛ افرادی که اخبار جعلی با استفاده از این فناوری ایجاد کنند، کاری غیر قانونی انجام دادند و با توجه به قانون با آن‌ها برخورد می‌شود. همچنین محتوای دیپ جعلی برای نامزدهای شرکت‌کننده در مناصب دولتی ممنوع شده است. بسیاری از سلبریتی‌های زن قربانی این فناوری دروغین شده‌اند. در واقع گسترش دیپ‌فیک با فیلم‌های مستهجن آغاز شد.

فناوری دیپ‌فیک هنوز سابقه‌ای در سراسر جهان ندارد و بسیار امیدوارکننده است. بشریت هنوز در حال آشنایی با این فناوری است. کاربرد کامل آن هنوز در جامعه به‌طور کامل مشخص نشده است. این فناوری نیز مانند فناوری‌های دیگر دارای مزایا و معایب هستند. همچنین می‌تواند موجب پیشرفت و آسیب به جامعه باشد. این فناوری نیز به مرور زمان توسعه پیدا می‌کند و با گذشت زمان راه‌های کنترل برای آن به‌ وجود خواهد آمد. افراد باید به‌طور کامل با این فناوری آشنایی پیدا کنند تا قربانی این فناوری نشوند.

تهدید امنیت کشورها با تصاویر ماهواره‌ای «دیپ فیک»

چهارشنبه, ۸ ارديبهشت ۱۴۰۰، ۰۳:۴۰ ب.ظ | ۰ نظر

محققان دانشگاه واشنگتن هشدار داده‌اند تهیه تصاویر ماهواره‌ای جعلی با استفاده از فناوری جعل عمیق یا دیپ فیک می‌تواند امنیت ملی کشورها را به خطر بیندازد.

به گزارش خبرگزاری مهر به نقل از انگجت، پیش از این نگرانی از تهیه محتوای ویدئویی یا تصویری جعلی و قلابی از اشخاص مشهور با استفاده از فناوری جعل عمیق موجب نگرانی‌های امنیتی شده بود. اما حالا دامنه این تهدید به تهیه تصاویر ماهواره‌ای جعلی کشیده شده است.

این پژوهشگران می‌گویند با استفاده از الگوریتم‌های هوش مصنوعی و از طریق تغذیه این الگوریتم‌ها با استفاده از عکس‌ها و نقشه‌های ماهواره‌ای مختلف، می‌توان تصاویر ماهواره‌ای جعل عمیق تهیه کرد که حاوی جاده‌ها، ساختمان‌ها، عوارض جغرافیایی و غیره غیر واقعی باشند یا ابعاد و ارتفاع و موقعیت ساختمان‌ها، جاده‌ها و غیره در آنها با اهداف مغرضانه جابجا شده باشند.

اگر چه از فناوری جعل عمیق می‌توان برای شبیه سازی تغییرات مناطق مختلف جغرافیایی با هدف تحقیق در مورد گرمایش زمین، گسترش شهرنشینی، پیش بینی تحولات آتی و غیره استفاده کرد، اما فناوری یادشده می‌تواند کارکردهای خطرناکی نیز داشته باشد. به عنوان مثال یک کشور متخاصم می‌تواند تصاویر دروغین ماهواره‌ای را برای کشورهای هدف ارسال کند تا استراتژیست‌های نظامی آنها را گمراه کند.

در چنین نقشه‌هایی ممکن است ساختمان‌ها و پل‌هایی که اهداف نظامی ارزشمندی هستند، حذف شوند. همچنین ممکن است از تصاویر ماهواره‌ای جعل عمیق برای پیشبرد اهداف سیاسی، مانند پنهان کردن شواهد جنایات یا مخفی کردن نشانه‌های تغییرات مخرب آب و هوایی استفاده شود. از همین رو باید روشی اطمینان آور برای شناسایی این نوع تصاویر ماهواره‌ای جعلی ابداع شود.

«جعل عمیق» خطرناک‌ترین فناوری قرن شد

يكشنبه, ۲۴ اسفند ۱۳۹۹، ۰۲:۴۸ ب.ظ | ۰ نظر

میثم لطفی - برای کسانی که از آینده می‌ترسند و همواره نگران هستند بخش های دلهره‌آور فیلم‌های تخیلی روزی به حقیقت بپیوندد باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است.

به گزارش روزنامه نیویورک تایمز، در حالی که میلیون‌ها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکه‌های اجتماعی مشاهده می‌کردند مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است.
ویدیویی که در تیک‌تاک، توئیتر و سایر شبکه‌های اجتماعی بین میلیون‌ها کاربر دست به دست شد توسط یک هنرمند جلوه‌های تصویری و با شبیه‌سازی یکی از برنامه‌های «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفت‌وگوی تلویزیونی در سال ۲۰۰۸ است، «بیل هیدر» در حال تعریف کردن خاطره از اولین ملاقات خود با «تام کروز» در جلسه سناریوخوانی دیده می‌شود.
گفته می‌شود در این ویدیو هر زمان «هیدر» مطلبی را از تام کروز نقل می‌کند، ناگهان اجزای صورت و حالاتش به شکل او درمی‌آید. یک حساب کاربری در یوتیوب که نخستین بار این تصویر ویدیویی را منتشر کرد پیش از این با استفاده از جعل عمیق، تصویر ویدیویی «آرنولد شوارتزنگر» بازیگر دیگر سینما را پخش کرده بود. فریب میلیون‌ها کاربر جهانی با ویدیویی که جعلی بودن آن به هیچ وجه قابل تشخیص نبود باعث شد تا نیویورک تایمز از «جعل عمیق» به‌عنوان «خطرناک‌ترین فناوری قرن» یاد کند.


جعلی یا واقعی؟
براساس سنت سالانه انگلستان ساعت سه بعد ازظهر روز کریسمس سخنرانی ملکه الیزابت دوم از طریق تلویزیون ملی این کشور پخش شد و طبق روال معمول شبکه چهار تلویزیون هم به‌صورت همزمان ویدیوی فرد دیگری را برای مخاطبان خود ارائه کرد. پیش‌تر در چنین روزی سخنرانی افراد مشهوری از جمله «ادوارد اسنودن»، پیمانکار سابق آژانس امنیت ملی امریکا و... به‌صورت همزمان با صحبت‌های ملکه پخش شده بود و مخاطبان شبکه چهار امسال ملکه و خانواده سلطنتی انگلستان را مشاهده کردند که در حال رقص و پایکوبی بودند و به نظر می‌رسید تصاویر ویدیویی را برای شبکه اجتماعی تیک‌تاک ضبط کرده‌اند. طولی نکشید که رسانه‌های خبری توضیح دادند که مردم در حال تماشای نسخه دستکاری شده دیجیتالی ملکه بودند که با استفاده از فناوری جعل عمیق ساخته و صدای او هم توسط «دبرا استیونسون» بازیگر و کمدین مشهور تقلید شده بود.
به گفته شبکه چهار تلویزیون ملی انگلستان، این برنامه به‌عنوان یک هشدار کاملاً جدی در مورد تهدیدهای بالقوه و خطرناک فناوری جعل عمیق و اخبار جعلی پخش شد و «ایان کاتز»، مدیر برنامه‌های این شبکه، ویدیوی مذکور را «یادآوری قدرتمندی توصیف کرد که با آن حتی نمی‌توانیم به چشمان خود هم اعتماد کنیم.»
«جعل عمیق» یا «دیپ فِیک» نوع ویژه‌ای از فناوری هوش مصنوعی است که بواسطه کارکرد خود برای نامگذاری آن دو اصطلاح «یادگیری عمیق» و «جعلی» باهم ترکیب شده‌اند. این فناوری تکنیک ویژه‌ای برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است که در آن تصاویر و فیلم‌های موجود روی تصاویر یا فیلم‌های منبع قرار می‌گیرد و از قابلیت ویژه فناوری یادگیری ماشینی موسوم به «شبکه مولد تخاصمی» (GAN) استفاده می‌شود. ویدیوی جعلی که از این طریق ساخته می‌شود ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیت ویژه نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است.
این فیلم‌های تقلبی می‌توانند فرد را در حال انجام اقداماتی نشان دهند که هرگز در آن حضور نداشتند و همچنین از آن برای تغییر کلمات یا حرکات یک سیاستمدار استفاده کنند تا به نظر برسد آن فرد چیزی را گفته که هرگز به زبان نیاورده ‌است. به‌عنوان مثال، اکتبر گذشته زمانی که کاخ سفید خبر ابتلای «دونالد ترامپ» به کرونا را منتشر کرد، حساب توئیتری رئیس‌جمهوری سابق امریکا ویدیوی کوتاهی را از او منتشر کرد که به نظر می‌رسید دقایقی پیش از سوار شدن ترامپ به هلی‌کوپتر برای انتقال به بیمارستان ضبط شده بود. ترامپ در این ویدیو از حمایت‌ها و پیام‌های محبت‌آمیزی که در ساعات گذشته دریافت کرده بود تشکر کرد و توضیح داد که حال عمومی او خوب است ولی طولی نکشید که خبرگزاری‌ها با تحلیل‌های دقیق‌تر توضیح دادند این ویدیو به احتمال قوی توسط فناوری جعل عمیق ساخته شده است و در اصل «دونالد ترامپ» واقعی در این ویدیو حضور نداشته است.
پیش از این خبرگزاری چینی شینهوا و موتور جست‌وجوی اینترنتی Sogou در یک پروژه مشترک با استفاده از فناوری جعل عمیق مجری تلویزیونی را طراحی کردند که شکل ظاهری شبیه یک مرد دارد و با ایجاد صدا و حرکات چهره انسان، اخبار را به‌صورت کاملاً حرفه‌ای می‌خواند و بیننده تصور می‌کند گوینده واقعی در مقابل چشمان او قرار گرفته است. این خبرگزاری چینی کارمند جدید خود را که در اصل وجود خارجی ندارد یک گوینده حرفه‌ای و خستگی‌ناپذیر معرفی کرد که تمامی اخبار روز را به‌صورت ۲۴ ساعته گزارش می‌دهد.


مفید یا مضر؟
فناوری جعل عمیق برای برخی کاربران شاید در ابتدا سرگرم کننده به نظر برسد تا با اپلیکیشن‌های موبایلی و ساخت این گونه تصاویر ویدیویی بتوانند توجه بیشتری از مخاطبان شبکه‌های اجتماعی را به خود جلب کنند ولی برای کارشناسان این طور به نظر نمی‌رسد.
«متئو کالدوِل» از محققان دانشگاه سلطنتی لندن در این خصوص گفت: «مردم این روزها بخش‌های زیادی از زندگی روزمره خود را به دنیای مجازی سپرده‌اند و فعالیت آنلاین آنها روی تمام بخش‌های زندگی‌شان تأثیر می‌گذارد. محیط‌های آنلاین که در آن داده‌ها از قدرت و اثرگذاری بالایی برخوردار هستند، با استفاده از فناوری هوش مصنوعی برای بهره‌ برداری‌های مجرمانه هم به کار گرفته می‌شوند.»
او همچنین توضیح داد:‌ «جرایم حوزه دیجیتال برخلاف بسیاری از جرایم سنتی براحتی قابل تکرار نیستند و این اتفاق به مجرمان امکان می‌دهد تکنیک‌های جنایی خود را به‌صورت انحصاری به بازار عرضه کنند و کاربران را مورد سوءاستفاده قرار دهند. این مسأله به آن معنی است که مجرمان سایبری ممکن است جنبه‌های چالش برانگیز جنایت مبتنی بر هوش مصنوعی را برون سپاری کنند تا از این طریق بتوانند به‌صورت حرفه‌ای‌تر پروژه‌های خود را پیش ببرند.»
دانشگاه سلطنتی لندن در بررسی‌های خود به این نتیجه رسید که فناوری جعل عمیق این روزها به‌صورت ویژه برای ساخت فیلم‌های مستهجن مورد استفاده قرار می‌گیرد. تحقیقات این مرکز در ژوئن ۲۰۲۰ نشان داد ۹۶ درصد تصاویر جعل عمیق در حوزه فیلم‌های مستهجن ساخته شده است و تقریباً نزدیک به ۱۰۰ درصد این فیلم‌ها با هدف ضربه زدن به زنان پخش شده‌اند. با این حال بسیاری از مردم استفاده از اطلاعات نادرست آنلاین را پیش شرط اصلی برای توسعه تصاویر جعل عمیق می‌دانند.
در سال ۲۰۱۹ میلادی حزب محافظه کار انگلیس ویدیویی از «کایر استارمر» رهبر فعلی حزب کارگر این کشور منتشر کرد تا نشان دهد او در مصاحبه مطبوعاتی نسبت به گذشته عملکرد بدتری دارد. در این زمینه اقدام مشابه توسط طرفداران حزب جمهوریخواه امریکا صورت گرفت و این اتفاق در نهایت باعث شد نسخه ویرایش شده تصاویر ویدیویی «نانسی پلوسی» رئیس دموکرات مجلس نمایندگان امریکا بین کاربران منتشر شود و حتی «دونالد ترامپ» هم آن را به اشتراک بگذارد.
اگرچه این ویدیوها با فناوری جعل عمیق ساخته نشده بودند و در عوض به‌صورت زیرکانه ویرایش شدند، ولی این مسأله نشان داد برای محتوای ویدیویی دستکاری شده بازار پرمخاطبی وجود دارد که مخالفان سیاسی می‌توانند از آن سوءاستفاده کنند.
محققان علاوه بر محتوای جعل عمیق، پنج فناوری دیگر را هم مورد توجه قرار داده‌اند که با استفاده از هوش مصنوعی توسعه پیدا می‌کنند و در آینده نزدیک می‌توانند نگرانی‌های زیادی برای مردم ایجاد کنند. استفاده از اتومبیل‌های بدون راننده به‌عنوان سلاح، استفاده از فناوری یادگیری ماشینی برای هدایت پیام‌های مخصوص کلاهبرداری، ایجاد اختلال در سیستم‌های کنترل ماشینی، نشر اخبار جعلی و جمع‌آوری اطلاعات آنلاین برای باجگیری پنج فناوری مذکور هستند و باید دید شرکت‌های توسعه دهنده سیستم‌های امنیت سایبری تا چه اندازه می‌توانند با این مشکلات مقابله کنند. (منبع:ایران)

شیوع کرونا و در پیش بودن انتخابات ریاست جمهوری آمریکا نگرانی در مورد انتشار ویدئوهای جعل عمیق را افزایش داده و از همین رو مایکروسافت ابزاری برای شناسایی این ویدئوها عرضه کرده است.

به گزارش خبرگزاری مهر به نقل از انگجت، ابزار جدید مایکروسافت شناسایی کننده اصالت ویدئوها نام دارد و با تحلیل ویدئوها و عکس‌های موجود در اینترنت تشخیص خواهد داد که آیا این نوع محتواها واقعی هستند یا دستکاری شده و فاقد سندیت هستند.

در نهایت ابزار مذکور بعد از بررسی عکس‌ها و فیلم‌های ارسالی به آنها امتیاز اعتماد می‌دهد یا شانس واقعی بودن آنها را بر مبنای درصد نمایش می‌دهد. مایکروسافت تحلیل ویدئوها را با استفاده از ابزار خود به صورت فریم به فریم انجام می‌دهد.

مایکروسافت مدعی است ابزار یادشده عناصر ظریفی را در عکس‌ها و ویدئوها مورد بررسی و توجه قرار می‌دهد که معمولاً انسان با چشم خود قادر به تشخیص آنها نیست.

تولیدکنندگان محتوا و فعالان حوزه رسانه و خبر هم می‌توانند برای صدور تاییدیه اصالت تولیدات خود از این ابزار استفاده کنند تا برچسب واقعی بودن عکس‌ها و ویدئوهای آنها به محتوای ارسالی آنها اضافه شود. از این طریق کاربران اینترنت هم راحت تر می‌توانند به محتوای یادشده اعتماد کنند.

نحوه مبارزه توئیتر با «دیپ فیک» مشخص شد

سه شنبه, ۲۱ آبان ۱۳۹۸، ۰۲:۱۰ ب.ظ | ۰ نظر

توئیتر که از برنامه های خود برای مقابله با ویدئوهای جعل عمیق خبر داده بود، امروز جزئیاتی را در مورد تبعات شناسایی و شرایط حذف این ویدئوها اعلام کرده است.

به گزارش خبرگزاری مهر به نقل از انگجت، توئیتر پیش نویس دستورالعملی را در وبلاگ خود منتشر کرده که نشان می دهد این شرکت چگونه می خواهد با ویدئوهای دیپ فیک یا جعل عمیق را شناسایی کند و به حذف آنها کمک کند. دستورالعمل یادشده سیاست های توئیتر را هم در این زمینه مشخص کرده است.

در سند یادشده ویدئوهای جعل عمیق یک ابزار رسانه ای مصنوعی و دستکاری شده توصیف شده اند که می توانند در قالب عکس، فایل های صوتی یا ویدئویی با هدف گمراه کردن افراد و تغییر معنای واقعی فایل های اصلی منتشر شوند.

در ادامه این سند آمده است در صورتی که توئیتر عکس، صدا یا فایل ویدئویی جعل عمیق را شناسایی کند، یک پیام هشدار به توئیت هایی که این محتوا را منتشر کنند، اضافه می کند. همچنین به افراد در مورد به اشتراک گذاری و لایک زدن تویئت های حاوی این محتوا از قبل هشدار می دهد.

همچنین توئیتر به طور خودکار لینک به یک خبر را به چنین توئیتی اضافه می کند تا افراد بتوانند مطالب دست اولی را در مورد محتوای جعل شده دریافتکنند.

در دستورالعمل یادشده تصریح شده اگر توئیتر به این نتیجه برسد که توئیتی به علت انتشار چنین محتوای دروغینی می تواند امنیت فیزیکی فردی را به خطر بیندازد یا موجب آسیب جدی شخص یا اشخاصی شود، آن را به طور کامل پاک می کند. این شرکت سال گذشته اعلام کرده بود که اجازه انتشار هیچ ویدئوی جعل عمیق هرزه نگارانه ای را نخواهد داد.

این دستورالعمل ها هنوز قطعی نشده و احتمالا ظرف سی روز آینده در مورد آنها جمع بندی خواهد شد. این شرکت در مورد نحوه شناسایی توئیت های حاوی محتوای جعل عمیق نیز توضیحات فنی چندانی ارائه نکرده است.

در جهانی که سرعت تبادل اطلاعات اصالت منبع داده‌ها را به فراموشی سپرده، معضل تازه‌ای به نام «دیپ فیک» مبنا قرار دادن فیلم را هم به چالش کشیده‌ است؛ همین موضوع، مدیران شبکه‌های مجازی مانند توئیتر را به واکنش وادار کرده‌ و آنها ...

آیا "دیپ‌فیک" دودمان شبکه‌های اجتماعی را به باد می‌دهد؟!

به گزارش تسنیم؛ سالهاست که با افزایش سرعت در تبادل اطلاعات، صحت و سندیت داده‌های تبادل شده زیر سؤال می‌رود و اگر در این وانفسای شتابزده هنوز رسانه‌های معتبر، عرض اندام می‌کنند به دلیل ارتباطشان با صحت اخبار است چرا که شبکه‌های اجتماعی به گونه‌ای پیشرفت کرده‌اند که صفحات مجازی هر شخصیت حقیق و حقوقی می‌تواند به مثابه رسانه آنها عمل کند و اطلاعات لازم را بدون واسطه در اختیار گروه هدفشان قرار دهد؛ استناد این گفته هم منبع قرار دادن این صفحات مجازی در رسانه‌های معتبر است.

اما با پیشرفت هوش مصنوعی و جریان تکنولوژی، حالا اصالت گفته‌ها و سندیت‌ داده‌ها به شدت در معرض خطر جعل قرار دارد؛ نمونه تازه این جعل هم نرم‌افزاری به نام «دیپ فیک» است که حالا بلای جان شبکه‌های اجتماعی و حتی رسانه‌های معتبر شده است!

این نرم افزار با استفاده از هوش مصنوعی، ویدئوهای واقه‌گرایانه اما جعلی درست می‌کند که با استفاده از شبیه‌سازی صورت افراد می‌تواند سخنانی را با تصویر به آنها منصوب کند و حضورشان را در جایی که اصلا وجود نداشته به نمایش بگذارد! بنابراین مخاطب می‌تواند شاهد شنیدن سخنانی از بزرگان و سیاستمداران باشد که اصلاً این سخنان از جانب آنها گفته نشده‌است، از حرفهای جعلی ترامپ و اوباما گرفته تا حضور جعلی بازیگران هالیوودی در فیلمهای مستهجن.

فضای مجازی , رسانه , شبکه‌های اجتماعی ,

فضای مجازی , رسانه , شبکه‌های اجتماعی ,

با گذشت زمان و پیشرفت این تکنولوژی تشخیص جعلی بودن آنها هم روز به روز سختتر می‌شود؛ فناوری دیپ فیک  Deepfake با شناسایی شکل و حالات نقاط مختلف چهره انسان، چهره همان شخص را جعل می‌کند و هر حالت صورتش را به آن الصاق می‌کند.

حقیقتی که قربانی «دیپ فیک» می‌شود

همین موضوع، مدیران شبکه‌های مجازی مانند توئیتر را به واکنش وادار کرده‌ است و آنها به دنبال سیاست‌های تازه‌ای هستند که به واسطه آن مانع از گسترش کلیپ‌های ایجاد شده توسط دیپ فیک باشند؛ این نرم‌افزار بیشتر بخش‌های حقوقی شبکه‌های اجتماعی و رسانه‌ها را درگیر کرده‌ است چرا که می‌تواند تبعات زیادی به همراه داشته باشد و آنچه در این وانفسا قربانی می‌شود، حقیقت است.

شاید همین موضوع تحول تازه‌ای را در دنیای رسانه و انتقال پیام باعث شود، پیش از این مخاطبان به هر آنچه می‌شنیدند و می‌خواندند اعتماد نمی‌کردند و از این به بعد باید به دیده‌های خود هم شک کنند و البته همین موضوع می‌تواند بر اعتبار رسانه‌های شناخته شده اضافه کرده و بر صحت مطالب منتشر شده در فضای مجازی شبهه ایجاد کند؛ این یعنی فرصتی تازه به رسانه‌های برای جذب مخاطب.

با نزدیک شدن به پدیده انتخاباتی 2020 امریکا، فیس‌بوک هم به واکنش نسبت به این پدیده نوظهور وادار شده و از تلاش تکنیسین‌هایش برای یافتن راه‌حل می‌گوید؛ چرا که تحلیل‌گران جامعه اطلاعاتی جهان از خطر دیپ‌فیک برای انتخابات و بحران‌های سیاسی جهان خبر داده است؛ راه‌حلهایی که تا الان برای مقابله با این پدیده پیشنهاد شده‌، حذف آنها از خروجی شبکه‌های اجتماعی یا برچسب زدن به آنهاست.

کلاهبرداری موفق با کمک فناوری دیپ فیک

شنبه, ۱۶ شهریور ۱۳۹۸، ۰۳:۳۳ ب.ظ | ۰ نظر

مجرم سایبری با تقلید صدای مدیر و با استفاده از فناوری «دیپ فیک» توانست ۲۴۳ هزار دلار کند.
 یک کلاهبردار با استفاده از فناوری«دیپ فیک» و نرم افزار هوش مصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
این فرد با استفاده از نرم افزارهای هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر این موسسه را تقلید کرده است. کلاهبردار از مدیر زیرمجموعه در انگلیس خواست تا طی یک ساعت مبلغی را به یک شرکت تهیه کننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت می شود.
مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگی های سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمی کند. اما نه فقط مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اما این بار مدیر انگلیسی از انجام آن سرباز زد.
سرانجام مشخص شد مبلغی که به بلغارستان منتقل شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلاهبرداری سایبری هستند. البته این زیرمجموعه انگلیسی بیمه است و شرکت بیمه نیز تمام مبلغ سرقت شده را بازپرداخت می کند.
طبق نوشته وال استریت ژورنال، این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است. اکنون به نظر می رسد فناوری دیپ فیک مجالی جدید برای گسترش فعالیت های مجرمانه سایبری فراهم کرده است.
مرجع : خبرگزاری مهر

دیپ فیک مشکل فناوری نیست، مساله قدرت است

سه شنبه, ۴ تیر ۱۳۹۸، ۰۷:۱۷ ب.ظ | ۰ نظر

فناوران - اسکار شوارتز*- در بحبوحه انتخابات ریاست جمهوری سال 2016 ایالات متحده، کمتر کسی پیش بینی می کرد که اطلاعات نادرست (misinformation) تا این حد می تواند بر روند دموکراسی تاثیر منفی بگذارد. اما حالا در آستانه انتخابات 2020 حساسیت ویژه ای درباره تهدیدات جدیدی که اکوسیستم اطلاعات را شکننده کرده است، وجود دارد.
امروز دیگر بات های روسی در صدر سیاهه نگرانی ها نیستند؛ بلکه جعل عمیق یا دیپ فیک جای آنها را گرفته است. جعل عمیق استفاده از هوش مصنوعی برای دستکاری چند رسانه ای هاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان می دهند که در واقع چنین حرفی نزده اند.
اکنون این تهدید جدی گرفته شده است. پنج شنبه گذشته، نخستین جلسه ارایه گزارش کمیته اطلاعات کنگره آمریکا دراین باره برگزار شد و آدام شیف، رییس این کمیته در سخنرانی خود، با بیان اینکه جامعه در معرض یک انقلاب فناورانه است، گفت: این انقلاب به طور موثر شیوه تولید اخبار جعلی را متحول می کند.
او از نوآوری ها در هوش مصنوعی گفت که در کارزارهای انتخاباتی به کار گرفته خواهد شد و با الگوریتم های بهبود یافته اش، تشخیص اصالت تصاویر، ویدیوها، متون و صوت را بسیار دشوار خواهد کرد.
به طور خلاصه، او مشکل محتواهای رسانه ای دستکاری شده را تهدید جدیدی عنوان کرد که فناوری های پیچیده در حال رشد منجر به ظهور آن شده است.
البته شیف در این نظر تنها نیست. گفتمان گسترده تری درباره محتوای جعلی با تمرکز بر محتواهای تولید شده با هوش مصنوعی ایجاد شده است؛ یعنی درباره استفاده از تکنیک های پیشرفته یادگیری ماشینی به منظور ایجاد کپی های غیر واقعی از چهره، صدا یا دستخط افراد. اگرچه این دستاوردهای فناورانه بسیار جذاب هستند؛ این نگرانی وجود دارد که شیفته جذابیت این فناوری شویم و از درک مشکل عمیقی که ایجاد می کند، غافل بمانیم.
برای درک بهتر موضوع، آخرین نمونه از دستکاری رسانه ای که از یک فرد سطح بالا در فضای آنلاین منتشر شده را به یاد بیاورید: ویدیویی ساختگی از نانسی پلوسی، سخنگوی کنگره که او را مشغول صحبت کردن در حال مستی نشان می دهد. تازه این ویدیو به دست متخصصان هوش مصنوعی و به عنوان بخشی از آن انقلاب فناورانه ساخته نشده، بلکه صرفا حاصل ویرایش و کند کردن ویدیوی صحبت های پلوسی به دست یک بلاگر طرفدار ترامپ به نام شان بروکس است.
دلیل اینکه این ویدیو تا این حد گسترده بازنشر شده، این نیست که از نظر فناوری کار پیشرفته ای بوده یا از نظر بصری گمراه کننده بوده است؛ بلکه این اتفاق در نتیجه طبیعت شبکه های اجتماعی رخ داده است. وقتی مدل کسب وکار یک پلتفرم به حداکثر رساندن زمان درگیری مخاطب با محتوا به منظور کسب درآمد از نمایش آگهی باشد، محتوای تفرقه انگیز، شوک آور و توطئه آمیز در صدر خوراک های خبری این رسانه ها قرار می گیرد. هنر بروکس نیز مانند بقیه ترول های اینترنتی، درک و استفاده از این ویژگی بوده است.
در واقع ویدیوی پلوسی نشان می دهد که اخبار جعلی و پلتفرم های اجتماعی ارتباطی دوجانبه پیداکرده و به هم وابسته شده اند. فیس بوک به حذف این ویدیوی دستکاری شده تن نداد و اعلام کرد که بر اساس سیاست های محتوایی اش، واقعی بودن ویدیوها ضروری نیست. (البته این شبکه اجتماعی در تلاش برای به حداقل رساندن آسیب ها، سطح انتشار این ویدیو را در فیدهای خبری اش محدود کرد.) واقعیت این است که محتواهای تفرقه انگیز از جنبه مالی برای پلتفرم های شبکه اجتماعی برد محسوب می شوند و تا زمانی که این منطق کسب وکار حاکم بر حیات آنلاین ما باشد، جاعلان محتواهای بدبینانه به جعل و انتشار این محتواهای تفرقه انگیز ادامه می دهند، حال چه با استفاده از یادگیری ماشین و چه بدون آن.
مشکل نیز همین جا نهفته است: با معرفی کردن جعل عمیق به عنوان یک مشکل فناورانه، به پلتفرم های شبکه اجتماعی اجازه می دهیم که به ارایه و تبلیغ راهکارهای فناورانه خود برای این مشکل بپردازند و با هوشمندی، توجه عموم را از این واقعیت دور کنند که مشکلات اصلی و پایه ای، قدرت بیش از حد پلتفرم های فناوری سیلیکون ولی است.
قبلا هم این اتفاق افتاده است. پارسال، زمانی که کنگره مارک زاکربرگ را برای پاسخگویی درباره مشکلات حریم خصوصی و دخالت داشتن فیس بوک در انتشار اخبار جعلی فراخواند، زاکربرگ به جای پرداختن به مشکلات ساختاری موجود در شرکت اش، سعی کرد به کنگره اطمینان بدهد که راهکارهای فناورانه در آینده ای که مشخص نیست کی فرامی رسد، برای همه مشکلات راهکار ارایه خواهد داد. زاکربرگ در آن جلسه بیش از 30 بار از هوش مصنوعی، به عنوان حلال مشکلات، نام برد.
با توجه به همه اینهاست که یوگنی موروزوف، پدیده راهکارگرایی فناورانه (technological solutionism) را مطرح می کند. منظور او ایدئولوژی حاکم بر سیلیکون ولی است که سعی دارد مسایل پیچیده اجتماعی را به صورت مسایلی شسته و رفته با راهکارهای عملیاتی و قطعی مطرح کند که در آنها هر مشکلی در صورت داشتن یک الگوریتم مناسب، قابل حل است. این طرز تفکر به شدت روش مند، قراردادی و در عین حال از نظر اجتماعی کوته نظرانه، آنچنان درون صنعت فناوری پرطرفدار و فراگیر است که به نوعی خصلت ژنتیک این صنعت تبدیل شده و هر سوالی را با آن پاسخ می دهند: «چطور مشکل نابرابری ثروت را حل کنیم؟ با بلاک چین»؛ «چطور مشکل دوقطبی ها را در سیاست حل کنیم؟ با هوش مصنوعی» یا «چطور مشکل تغییرات آب وهوایی را حل کنیم؟ با بلاک چین مبتنی بر هوش مصنوعی» ...
این اشتیاق و انتظار دایمی برای راهکارهای فناورانه که قرار است در آینده نزدیک ارایه شود، ما را از توجه به واقعیت های تلخی که هم اکنون با آنها درگیریم، باز می دارد. زاکربرگ سال گذشته در برابر کنگره، به ما وعده مدیریت بهتر محتوا را با استفاده از هوش مصنوعی داد، اما از آن پس گزارش های متعدد حاکی از این است که مدیریت محتوا در این شرکت همچنان متکی به نیروی انسانی است که هر روزه با محتواهای خشونت بار، شوکه کننده و نفرت انگیز مواجهند و شرایط کاری بسیار سختی دارند و فیس بوک با صحبت کردن بی وقفه درباره مدیریت محتوا با هوش مصنوعی، عملا ذهن ها را از شرایط سخت این انسان های واقعی منحرف می کند. ایدیولوژی راهکارگرایی فناورانه، بر گفتمان مربوط به شیوه مواجهه با محتواهای رسانه ای دستکاری شده نیز اثر می گذارد. راهکارهایی که ارایه می شود، عمدتا ماهیت فناورانه دارند؛ از واترمارک های دیجیتال گرفته تا تکنیک های جدید بازرسی مبتنی بر یادگیری ماشین. مطمئنا کارشناسان متعددی به تحقیقات امنیتی با اهمیتی برای شناسایی محتواهای جعلی درآینده مشغولند. این کاری ضروری است، اما لزوما به حل مشکل عمیق اجتماعی فروپاشی حقیقت و قطبی سازی که پلتفرم های رسانه های اجتماعی سودهای کلانی از آن می برند و در آن نقش دارند، نمی انجامد. بزرگ ترین نقطه ضعف راهکارگرایی فناورانه، یکی این است که می توان از آن برای پنهان کردن مشکلات عمیق ساختاری در صنعت فناوری استفاده کرد. همچنین این ایدئولوژی می تواند مانعی جدی در برابر کنشگرانی باشد که با تمرکز قدرت در دست شرکت هایی که شیوه دسترسی ما به اطلاعات را کنترل می کنند، مخالف هستند.
اگر ما همچنان دیپ فیک را به جای یک مفسده اساسی در قلب اقتصاد توجه (attention economy)، به عنوان یک مشکل فناورانه جا بزنیم، خودمان را در انتخابات 2020 نیز در معرض بلای اطلاعات نادرست قرار داده ایم؛ همان بلایی که در سال 2016 سرمان آمد.
 منبع: گاردین
* اسکار شوارتز نویسنده مستقل و محقق ساکن نیویورک آمریکاست

فناوری «دیپ‌فیک» با وجود شکایت‌ها و محدودیت‌هایی که در استفاده آن وجود دارد، همچنان رشد می‌کند و به راحتی می‌تواند با شبیه‌سازی چهره، ویدئوهایی از افراد را تولید کند که اساسا وجود ندارند!

تصور کنید در خانه نشسته‌اید و با گوشی‌تان کار می‌کنید، در همین لحظه دوستتان یک ویدئو برای‌تان ارسال می‌کند که در آن با شبیه‌سازی، چهره شما رو صورت خودش، درباره موضوعات مختلف حرف می‌زند و اظهار نظر می‌کند. شما به حرف‌هایی که از دهان کسی مشابه خودتان خارج می‌شود، می‌خندید و احتمالاً ویدئو را در گوشی ذخیره می‌کنید و باز هم از دیدن آن لذت می‌برید!

اما همین تکنولوژی عجیب که برای شما خنده‌دار و بامزه است، می‌تواند برای آن‌هایی که شخصیت‌های شناخته شده‌ای هستند، دردسرساز شوند.

طعم این دردسر را اسکارلت جوهانسون و باراک اوباما چشیده‌اند! وقتی از اوباما یک سخنرانی جعلی منتشر و ویدئویی غیراخلاقی از جوهانسون در فضای مجازی دیده شد، با شکایت‌های متعدد، استفاده از این برنامه در برخی از وب‌سایت‌هایی که پیشتر جابجایی چهره برای سرگرمی به کار می‌رفت، ممنوع شد.

اما این پایان ماجرا نیست، وقتی «دیپ‌فیک» روز به روز پیشرفته‌تر می‌شود و می‌تواند شبیه‌سازی را بهتر و کامل‌تر انجام دهد، فراگیرتر شده و در نهایت مقابله با آن سخت‌تر می‌شود. حالا این تکنولوژی نه‌تنها چهره بلکه شکل اندام را هم می‌تواند شبیه‌سازی کند.

وقتی دیگر به ویدئو هم نمی‌توان اعتماد کرد

روزگار گذشته وقتی خبری از صحبت‌های یک مقام مهم منتشر می‌شد، در ابتدا صدا مُهر تایید و بعدتر تصویر شخص مدرکی بر واقعی بودن آن بود، اما حالا و با بروز تکنولوژی‌هایی چون «دیپ فیک» دیگر حتی به ویدئوها هم نمی‌توان اعتماد کرد، حالا با یک عکس و صدا می‌توان چهره هر فردی را بازسای کرد و حرف‌ها و کارهایی را از او خواست انجام دهد که فرد در زندگی شخصی‌اش هرگز مرتکب آن‌ها نمی‌شود.

دیپ‌فیک دقیقاً چیست؟

فناوری دیپ فیک Deepfake ، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربین‌ها کشف کرده و به طرز کاملاً باورپذیری چهره همان انسان را جعل می‌کند و می‌تواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد. این برنامه در حقیقت یک عروسک خیمه شب بازی دیجیتالی که در محیط‌های دیگر، بازتولید می‌شود.

متأسفانه ظهور deepfakes پس از بیشتر از یک دهه اشتراک گذاری تصاویر شخصی در شبکه‌های آنلاین آغاز شده تا جایی‌که حالا تقریباً تصاویر تمام چهره‌ها را در اینترنت می‌توان پیدا کرد. حتی دور ماندن از دید عموم، مانع از تلفیق Deepfake نخواهد شد ؛ امروزه این امری اجتناب ناپذیر است و هر کسی در جهان در معرض آن قرار دارد، به هر حال حتی اگر کسی اهل انتشار عکس در پروفایل و حساب‌های کاربری شخصی نباشد، هرکسی در تصاویر و فیلم‌های دوستانش دیده می‌شود، خیلی‌ها موبایل‌هایشان با قفل تشخیص چهره کار می‌کند، تماس‌های تصویری یا ویدئو کنفرانس‌های آنلاین، همه و همه باعث می‌شود که شکل‌های مختلف و در مورادی به طور ناخواسته تصویر چهره هر فردی در اینترنت به اشتراک گذاشته شود.

دیپ‌فیک چطور کار می‌کند؟

این برنامه با روش یادگیری ماشین کار می‌کند و برای جعل چهره، به چند صد تصویر از حالات مختلف چهره هدف نیاز دارد. در این میان افراد شناخته شده و معروف که به سادگی و با یک سرچ اینترنتی تصویر و ویدئوهای مختلف از آن‌ها موجود است، بیشتر در معرض خطر هستند.

این تکنولوژی توسط تیمی با رهبری دانشمندان دانشگاه استنفورد ساخته شده است، آنها یک هوش مصنوعی ایجاد کردند که می‌تواند با استفاده از الگوریتم‌ها حرکات صورت شخص را مورد بررسی قرار دهد و با ایجاد یک ماسک دیجیتالی با کمترین مشکل و با بیشترین انطباق چهره فرد دیگری را شبیه‌سازی می‌کند.

هوش مصنوعی ابتدا تمام چهره را تجزیه و تحلیل کرده و تمام بخش‌های صورت را با دقت اسکن می‌کند، تمام حرکات از جمله چرخش سر، حرکت چشم و جزیئات حرکات دهان مورد بررسی قرار می‌گیرد. پس از آن نرم‌افزار تمام داده‌ها را در حافظه خود ذخیره و روی ویدئوی هدف بارگزاری می‌کند.(خبرگزاری مهر)