ضربه اطلاعات جعلی هوش مصنوعی به روزنامهنگاری
محمد مهدی سیدی - هوش مصنوعی اگر به درستی به کارگرفته نشود نه تنها فرشتهی نجات نخواهد بود، بلکه روزنامهنگاری میتواند نابود کند. ضربهی هوش مصنوعی به حقیقت با ایجاد اطلاعات جعلی و «توهم هوش مصنوعی» میتواند جبران ناپذیر باشد.
بیش از 20 سال است دقت خبری در مخابره حقیقت در جهان مورد حمله جدی قرار گرفته است. این حمله از زمانی شروع شد که صاحبان شرکتها بدون نیاز به سرمایهگذاری مجدد در اتاقهای خبر، توانستند سودهای کلانی به دست آوردند؛ اینترنت مخاطبان را بازتعریف و تبلیغات را دوباره پیکربندی کرد، در نتیجه بخش زیادی از درآمد اتاقهای خبر کاهش یافت و کارکنان اتاق خبر را بین سالهای 2008-2020 حدود 26 درصد کاهش داد. در ایالات متحده این حملات سنگینتر هم شد؛ جایی که دونالد جی ترامپ با دروغهای بزرگ/کوچک و پیروان فرقه گونهی خود که روزنامهنگاران را دشمن مردم مینامیدند، ظاهر شد.
اما اکنون خطر بزرگتری هم حقیقت را تهدید میکند؛ هوش مصنوعی که ممکن است حقیقت را در زمان ما به کلی ریشه کن کند. نه به خاطر سرقت ادبی یا به خاطر دیپ فیک و نه حتی به خاطر مشاغل نویسندگی کمتر؛ بلکه روزنامهنگاری ممکن است تسلیم توهمات ساختهی هوش مصنوعی، اطلاعات ساختگی و استنباطهای غیرمنطقی شود که تا حد امکان بدون دردسر و کاملاً باورکردنی انجام میشود.
برای جلوگیری از ضربهی جدی به مخابره حقیقت اتاقهای خبر باید استفاده خود از چتباتها را تعدیل، ویراستاران بیشتری استخدام، بر بررسی حقایق تأکید و دستورالعملهایی را درباره برنامههای کاربردی ماشینی ایجاد یا بهروزرسانی کنند.
هوشهای مصنوعی چهارگانه
برای شروع فرآیند نجات حقیقت از دستان هوش مصنوعی، ابتدا باید چهار نوع هوش مصنوعی مورد استفاده یا در دست توسعه را بشناسیم:
• هوش مصنوعی واکنشی: این نوع برای کارهای محدود برنامهریزی شده است. از تعاملات گذشته درس نمیگیرد، اما میتواند شطرنج بازی کند، به عنوان فیلتر هرزنامه عمل کند و مجموعهای از دادهها را تجزیه و تحلیل کند.
• هوش مصنوعی حافظه محدود: این نوع الگوبرداری شده از مغز انسان و قادر به یادگیری از ورودیهای گذشته است؛ مانند ماشینهای خودران، دستیاران مجازی هوشمند و چت باتها.
• تئوری ذهن (هوش عمومی) هوش مصنوعی: این نوع در دست توسعه، برای شناخت و پاسخ به احساسات با تواناییهای تصمیم گیری برابر با انسان طراحی شده است.
• هوش مصنوعی خودآگاه (فوق هوش): این نوع که با آن فاصلهی بسیار زیادی داریم، نه تنها برای تشخیص احساسات انسان، بلکه برای القای نیازها، خواستهها و احساسات خود تئوریزه شده است.
هرچه ماشینها هوشمندتر شوند، توهمات القایی آنها هم خطرناکتر میشود. دریافت یک توصیه بد از دستیار هوشمند گوشیها یا استناد به ارجاعات ناموجود یک چیز است و تشخیص اشتباه یک بیماری روانی یا پاسخ به یک تهدید نظامی نادرست کاملاً چیز دیگری است.
توهمات هوش مصنوعی
اصطلاح «توهم» به عنوان «ادراک حسی کاذبی که علیرغم عدم وجود یک محرک خارجی، حس قانع کنندهای از واقعیت دارد» تعریف میشود. وبسایت آموزش فناوری اطلاعات Techopedia بیان میکند که توهمهای هوش مصنوعی زمانی اتفاق میافتند که «یک مدل بزرگ مانند OpenAI GPT4 یا Google PalM اطلاعات یا حقایقی نادرست را ایجاد کند که بر اساس دادهها یا رویدادهای واقعی نباشد».
چت رباتهای مبتنی بر هوش مصنوعی میتوانند اطلاعات مربوط به نامها، تاریخها و رویدادهای تاریخی را تولید کنند و موجب ایجاد «توهم هوش مصنوعی» شوند. بدتر از آن، آنها این جعلها را «با اطمینان و محکم» ارائه میکنند که میتواند منجر به «عواقب جدی در برخی موارد»، بهویژه بهداشت و پزشکی شود.
این خطرات به همین جا ختم نمیشود؛ استفاده از ChatGPT حتی میتواند اعتماد به تحقیقات را هم از بین ببرد. دانشآموزان و سایر محققان تازهکار هم اگر ایرادات فراوان ChatGPT را درک نکنند ممکن است مهارتهای تحقیقاتی ضروری خود را از دست بدهند و در کلاس درس با مشکل مواجه شوند.
محققان معمولاً تحت فشار زمان هستند، برای رسیدن تحقیقات خود به بازهی انتشار احساس فشار میکنند و بنابراین ممکن است از چت باتها به عنوان مرجع استفاده کنند. داوران تحقیقات هم به ندرت منابع را قبل از انتشار مقالات بررسی میکنند؛ این یعنی «توهم» ممکن است روش علمی را هم مخدوش کند.
این وضعیت دقیقاً در اتاق های خبر هم وجود دارد. خبرنگاران برای زمان تحت فشار هستند و برای میزان بهرهوری خود پول دریافت میکنند. کمبود ویراستاران خبرهای کپی هم سبب میشود که رسانهها اغلب در بررسی دقیق منابع شکست بخورند. این یعنی سرازیر شدن اطلاعات غلط و بدون پشتوانهی تولید شدهی هوش مصنوعی از اتاقهای خبر به سمت مردم و در نتیجهی آن نابودی حقیقت.
این توهمات نه تنها جامعه را به خطر می اندازد، بلکه حرفهی روزنامهنگاری را نیز به خطر می اندازد؛ زیرا روزنامهنگاری وظیفه دارد از قداست واقعیت محافظت کند. بنابراین، پذیرش هوش مصنوعی بدون درک ماهیت آن ممکن است منجر به بی اعتمادی عمیقتر به رسانههای خبری شود.
حقیقت مهم است
برای جلوگیری از آسیبهای یاد شده هوش مصنوعی اتاقهای خبر به سردبیرانی نیاز دارد که اخبار تولید شده را با دقت بررسی و آسیبهای ماشینی شدن را محدود کنند. همچنین تعدیل استفاده از چت باتها و کاربست هوشمندانهی هوش مصنوعی امری ضروری است. همچنین رسانهها باید دستورالعمل هایی را در مورد استفاده از هوش مصنوعی ایجاد یا به روز کنند.
بسیاری از رسانههای بزرگ جهان به سمت تدوین این دستورالعملها حرکت کردهاند؛ برای مثال رویترز برای اطمینان از «مشارکت معنادار انسانی، و توسعه و استقرار محصولات هوش مصنوعی و استفاده از دادهها به گونهای که با مردم منصفانه رفتار کند» نظارتهای جدیای را وضع کرده است. گاردین هم استفاده از هوش مصنوعی مولد را نیازمند نظارت انسانی میداند و آن را منوط به اجازهی یک سردبیر ارشد و برای منافع خاص کرده است.
یکی دیگر از پیشنهادها برای مقابله با آسیبهای هوش مصنوعی ایجاد یک میز حقیقت یا استاندارد است که به آشکارسازهای هوش مصنوعی برتر مجهز باشد.
همهی موارد بیان شده صرفاً بخشی از مسیری است که رسانههای امروز در پیش چشم خود داشته باشند. در این جدال میان حقیقت و هوش مصنوعی، اتاق های خبر باید برای دفاع از واقعیت قبل از اینکه طعمه ماشینها شود، مجهز باشند. (ایرنا)