ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

هوش مصنوعی و بحران اعتماد عمومی

| چهارشنبه, ۲۸ تیر ۱۴۰۲، ۰۳:۱۲ ب.ظ | ۰ نظر

با توسعه روزافزون هوش مصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپ فیک به مسئله ای اساسی بدل شده است.

به گزارش مهر تولید دیپ فیک (deep fake) یکی از توانمندی‌های هوش مصنوعی است که برای ایجاد تصاویر و ویدئو و صداهای متقاعدکننده جعلی استفاده می‌شود. این اصطلاح هم فناوری و هم محتوای گمراه‌کننده‌ای که تولید می‌کند را در بر می‌گیرد. دیپ‌فیک‌ها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض می‌شود، محتوای منبع موجود را تغییر می‌دهند. آن‌ها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد.

بزرگ‌ترین خطری که دیپ‌فیک ایجاد می‌کند، توانایی‌اش در انتشار اطلاعات نادرستی است که به نظر قابل‌اعتماد می‌آید.

مورد دیگر نگرانی‌هایی است که در مورد احتمال دخالت دیپ‌فیک در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپ‌فیک‌ها درحالی‌که تهدید جدی هستند در مواردی مانند بازی‌های ویدئویی و برنامه‌های پشتیبانی مشتری و پاسخ به تماس‌گیرندگان، کاربردهای قانونی دارند.

همان‌طور که سابقاً اشاره شد، ویدئوهای دیپ‌فیک شامل فیلم‌های دست‌کاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد ایجاد کرده یا کلاً هویت آن‌ها را تغییر می‌دهد و هویت شخص دیگری را جایگزین می‌کند. یک نوع دیگر از دیپ‌فیک، جعل صدای افراد است که در مواردی می‌تواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپ‌فیک استفاده کرده و صدای مدیر واقعی را جعل کرده است.

عکس‌های دیپ‌فیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار دشواری نیست. در یکی از اولین تحقیقات درباره این پدیده، فیس‌بوک ده‌ها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی به‌عنوان عکس پروفایل استفاده می‌کردند.

 

شیوع محتوای جعلی

یکی دیگر از خطرات هوش مصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوش مصنوعی‌های مولد زبانی مانند «ChatGPT» بیشتر از انواع مدل‌های دیگر آن احتمال انتشار اطلاعات نادرست را دارند.

هوش مصنوعی مولد قادر است اطلاعات نادرست و جعلی را به طور گسترده و مانند ویروس شیوع دهد. الگوریتم‌های هوش مصنوعی مولد می‌توانند متون، تصاویر و ویدئوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی بسیار سخت است. در دوره همه‌گیری ویروس کرونا، یکی از آسیب‌هایی که بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوش مصنوعی مولد قادر است چالش‌های مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و آسیب‌هایی مانند بازی‌دادن افکار و دیدگاه عمومی، تطهیر نام‌های ناشایست و تخریب نام‌های شایسته را در پی داشته باشد.

 

حوزه‌های در معرض آسیب

الگوریتم‌های هوش مصنوعی مولد، قادرند محتواهای تصویری و چندرسانه‌ای ایجاد کنند که کاملاً ساختگی بوده و از محتوای واقعی کاملاً دور هستند. دیپ‌فیک‌ها می‌توانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مسئله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامه‌نگاری داشته باشد.

یکی دیگر از حوزه‌هایی که ممکن است با دیپ‌فیک به خطر بیفتد، حوزه قضاوت است. با همه‌گیرشدن استفاده از هوش مصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدئو و تصاویر جعلی قادرند فرایند دادرسی را پیچیده‌تر کنند.

حوادث مهم سیاسی و اجتماعی نیز می‌تواند به بستری برای جولان سو استفاده‌کنندگان از هوش مصنوعی مولد تبدیل شود.

 

انتخابات

همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصه‌هایی است که در عصر جدید نیاز به مراقبت‌های بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت می‌گیرد و در غیر این صورت مردم بازیچه دست ذی‌نفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض آسیب دیپ فیک هستند و بنظر می‌رسد قانون‌گذاران به تکاپوی تنظیم‌گری این حوزه خواهند افتاد یا متحمل آسیب‌های جبران ناپذیر خواهند شد!

 

کشور چین، در خط مقدم مقابله با محتوای دیپ‌فیک

در بیشتر نقاط جهان، مسئولین هنوز اقدامی در جهت مقابله با دیپ‌فیک و انتشار اخبار جعلی توسط هوش مصنوعی مولد نکرده‌اند و این به دلیل شناخت کم آن‌ها از این فناوری نو است. مادامی که تکنولوژی پیچیده‌تر و در دسترس تر برای عموم می‌شود، مقابله با خطرات و آسیب‌های آن نیز دشوارتر می‌شود.

چین که یکی از بسترهای توسعه هوش مصنوعی مولد است سعی دارد تا پیش از سایر کشورها به مقابله با آسیب‌های دیپ‌فیک برخیزد. این کشور اخیراً قوانین گسترده‌ای تصویب کرده که بر اساس آن مطالب دست‌کاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسئولیت رد شایعات را بر عهده ارائه‌دهندگان خدمات ساخت محتواهای دیپ‌فیک گذاشته است.

مشکلی که برای مقابله با تکنولوژی جدید وجود دارد این است که افرادی که قصد سو استفاده دارند عموماً باهویت جعلی و یا بی‌هویت و مخفیانه دست به اقدامات نادرست می‌زنند. شناسایی آن‌ها به همین دلیل آسان نیست، بنابراین سایر کشورها هنوز موفق به تدوین قوانین تنظیم‌گرانه هوش مصنوعی مولد نشده‌اند. سخت‌گیری‌های زیاد هم ممکن است آزادی کاربران را به خطر بیندازد که تا کنون کشوری اقدام به اعمال محدودیت‌های شدید در این حوزه نکرده است.

به گفته کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این زمینه، به سایر کشورها کمک کرده تا اقدام به مقابله با دیپ‌فیک کنند. سابقه‌ها بر این منوال است که قانون‌گذاران در سراسر جهان ترجیح می‌دهند قبل از تدوین چارچوب‌های جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند.

راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» می‌گوید: «این عرصه برای تعیین سیاست جهانی سرنوشت‌ساز است، زیرا کشورها در حال رقابت‌اند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص می‌کند.»

 

دیپ‌فیک و برخی فواید

با وجود همه چالش‌های ذکر شده برای این فناوری، دیپ‌فیک در بسیاری از صنایع می‌تواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با ایجاد آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از راه‌رفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین می‌تواند برای ساختن برنامه‌های طنز و سرگرمی، خریداران آنلاین لباس که می‌توانند با استفاده از این فناوری لباس‌ها را در اتاق‌های تزئین مجازی امتحان کنند و انیمیشن‌سازان مفید باشد.

  • ۰۲/۰۴/۲۸

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">