دستکاری افکار عمومی با استعمار الگوریتمی هوش مصنوعی
مسلم تقی زاده* - هوش مصنوعی یک نیروی قدرتمند است و بسته به اینکه چگونه از آن استفاده کنیم و چه کسی آن را کنترل میکند، میتواند تأثیر مثبت یا منفی بر جامعه بگذارد.
سیستمهای هوش مصنوعی اغلب روی مجموعه دادههای عظیمی آموزش داده میشوند که معمولاً برای مقرونبهصرفه بودن و سهولت از وب حذف میشوند.
اما این بدان معناست که هوش مصنوعی میتواند همه سوگیریهای انسانهایی که آنها را طراحی میکنند و هر موجودی در دادههایی که آنها را تغذیه میکند به ارث ببرد. نتیجه نهایی آینه جامعه است، با تمام زشتیها.
از سوی دیگر؛ هوش مصنوعی در حال بازطراحی نظم جهانی است و یکی از پیامدهای منفی هوش مصنوعی این است که میتوان از آن برای ایجاد و انتشار اطلاعات نادرست یا گمراهکننده، دروغها و حقایق توهمآمیز استفاده کرد که میتواند اعتماد، هویت و احساس واقعیت ما را تضعیف کند.
این همان چیزی است که آن را باید دنیای پسا حقیقت هوش مصنوعی بنامیم.
به عنوان مثال، برخی افراد از هوش مصنوعی برای ایجاد تصاویر یا ویدیوهای جعلی استفاده میکنند که واقعی به نظر میرسند اما واقعی نیستند. آنها میتوانند از اینها برای انتشار اطلاعات نادرست، تبلیغات، یا شایعاتی استفاده کنند که میتواند ما را گیج کند یا ما را وادار کند چیزهایی را باور کنیم که درست نیستند. این میتواند بر اعتماد، هویت و احساس واقعیت ما تأثیر بگذارد.
به عنوان مثال، ممکن است ویدیوهای جعلی از افراد مشهور یا سیاستمداران دیده باشید که کارهایی را انجام میدهند که هرگز انجام ندادهاند. از این ویدئوها میتوان برای دستکاری افکار عمومی یا آسیب رساندن به شهرت استفاده کرد.
دنیای پسا حقیقت هوش مصنوعی همچنین میتواند با ایجاد دروغهایی که بیعدالتی را که برخی گروهها یا مناطق با آن مواجه هستند، توجیه یا پنهان کند، و به استعمار الگوریتمی کمک کند. به عنوان مثال، برخی از دولتها ممکن است از هوش مصنوعی برای سانسور یا تحریف اطلاعاتی استفاده کنند که نقض حقوق بشر یا فساد آنها را افشا میکند. این میتواند شناخت حقیقت و پاسخگویی آنها را برای ما دشوارتر کند.
دنیای پسا حقیقت هوش مصنوعی میتواند پیامدهای عمیقی برای معماران و طراحان جوانی داشته باشد که برای کار خود به اطلاعات و ارتباطات متکی هستند. آنها ممکن است برای تأیید منابع و صحت دادههایی که استفاده میکنند یا خروجیهایی که با ابزارهای هوش مصنوعی تولید میکنند به کمک نیاز داشته باشند.
آنها همچنین ممکن است با استفاده از ابزارهای هوش مصنوعی که ممکن است اطلاعات یا تصاویر نادرست یا مضر ایجاد کنند، با معضلات اخلاقی روبرو شوند. آنها همچنین ممکن است در صورت استفاده ناآگاهانه از محتوای جعلی یا ناقض ایجاد شده توسط هوش مصنوعی یا به اشتراک گذاری آن با خطرات قانونی روبرو شوند.
برای جلوگیری یا مقابله با دنیای پسا حقیقت هوش مصنوعی، معماران و طراحان جوان باید:
- از آخرین پیشرفتها و روندهای فناوری هوش مصنوعی و کاربردهای آن در طراحی و معماری آگاه و مطلع باشند.
- نسبت به ابزارهای هوش مصنوعی که استفاده میکنند و خروجیهایی که تولید میکنند، انتخابی و انتقادی باشند و کورکورانه یا غیرانتقادی به آنها تکیه نکنند.
- در استفاده از هوش مصنوعی برای طراحی و معماری اخلاقی ؛ مسئولیت پذیر باشند و تأثیرات اجتماعی و محیطی کار خود را در نظر بگیرند.
- مراقب اطلاعاتی که مصرف میکنند یا بهصورت آنلاین به اشتراک میگذارند، باشید و قبل از اعتماد یا انتشار آن، منابع و شواهد را بررسی کنید.
اما یکی دیگر از پیامدهای منفی هوش مصنوعی این است که میتوان از آن برای سوء استفاده بهره برد.
برای مثال، برخی از نهادهای قدرتمند، مانند شرکتهای بزرگ فناوری یا دولتها، از هوش مصنوعی برای جمعآوری، تجزیه و تحلیل و استفاده از دادهها، منابع یا افراد ما بدون رضایت یا منفعت ما استفاده میکنند.
آنها میتوانند از اینها برای پول درآوردن یا به دست آوردن قدرت با هزینه ما استفاده کنند.
این چیزی است که آن را استعمار اگوریتمیمینامیم. به عنوان مثال، ممکن است شنیده باشید که چگونه فیس بوک دادههای میلیونها کاربر را بدون اطلاع آنها جمع آوری کرده و با کمبریج آنالیتیکا به اشتراک گذاشته است. این شرکت مشاوره سیاسی از آن برای تأثیرگذاری بر انتخابات در سراسر جهان استفاده کرد.
قدرت استعماری سنتی به دنبال قدرت و سلطه یک جانبه بر مردم استعمار شده از طریق کنترل حوزه اجتماعی، اقتصادی و سیاسی است. در عصر الگوریتمها، این کنترل و تسلط نه از طریق نیروی فیزیکی بیرحم ، بلکه از طریق مکانیسمهای نامرئی و ظریف مانند کنترل اکوسیستمها و زیرساختهای دیجیتال اتفاق میافتد.
اشتراک استعمار سنتی و الگوریتمی، تمایل به تسلط، نظارت و تأثیرگذاری بر گفتمان اجتماعی، سیاسی و فرهنگی از طریق کنترل رسانههای ارتباطی و زیرساختی اصلی است.
در حالی که استعمار سنتی اغلب توسط نیروهای سیاسی و دولتی هدایت میشود، استعمار الگوریتمی توسط انحصارات فناوری شرکتها هدایت میشود – که هر دو در جستجوی انباشت ثروت هستند.
استعمار الگوریتمی همچنین میتواند با ایجاد شکاف یا تفاوت در افرادی که به فناوریهای هوش مصنوعی و روباتیک در میان جوامع یا کشورهای مختلف دسترسی دارند یا از آن بهره میبرند، بر انقلاب اتوماسیون روباتها تأثیر بگذارد.
به عنوان مثال، برخی از کشورها ممکن است منابع یا مهارتهای بیشتری برای توسعه و استفاده از هوش مصنوعی و روباتیک نسبت به سایرین داشته باشند و این باعث عدم تعادل قدرت و ثروت میشود. این میتواند رقابت یا همکاری در بازار جهانی را برای ما دشوارتر کند.
استعمار الگوریتمی همچنین میتواند با ایجاد مشکلات یا معضلاتی که فناوریهای هوش مصنوعی باید آنها را اخلاقی یا مسئولانه حل کنند، آنها را به چالش بکشد. برای نمونه، برخی از نهادها ممکن است از هوش مصنوعی برای نقض حقوق، حیثیت یا رفاه ما از طریق تجاوز به حریم خصوصی، تبعیض علیه ما یا آسیب رساندن به ما استفاده کنند. این میتواند اعتماد یا بهره مندی از فناوریهای هوش مصنوعی را برای ما دشوارتر کند.
در نتیجه؛ استعمار الگوریتمی با حداکثر کردن سود به هر قیمتی هدایت میشود، و فرض میکند که روح، رفتار و کنش انسان، مواد خامی برای گرفتن است. در در یک کلام ؛ استعمار الگوریتمی «نظرات تعبیه شده در کد» هستند. (عصرارتباط)
* پژوهشگر هوش مصنوعی و تحول دیجیتال دانشگاه تهران