خطرات استفاده از هوش مصنوعی در روزنامهنگاری
به گزارش ایرنا یادداشتهایی با عنوان «تاثیر هوش مصنوعی بر رسانهها، محدودیتها و مخاطرهها» و «هوش مصنوعی در روزنامهنگاری: محدودیتها و مخاطرات» نوشته «حسن بن عُشان» با ترجمه «جعفر انصاری فر» به نقش هوش مصنوعی در تولید محتوا و اتاق خبر اختصاص داشت. در ادامه بخش سوم این یادداشت میخوانیم:
بنگاههای خبری و هوش مصنوعی
بنگاههای خبری از هوش مصنوعی برای انجام کارهایی مانند برچسبگذاری خودکار محتوا، گردآوری اخبار، تولید و توزیع خبر استفاده میکنند. ابزارهای هوشمند با این که مزیتهای درخور توجهی برای روزنامهنگاری دارد، ولی خطراتی نیز وجود دارد که این اثر این مزیتها را کاهش میدهد.
خطرات احتمالی مذکور با منشاء سوگیری دادههای آموزشی، خطاهای سیستمی، کم شدن نیروی کار و مدیریت نامناسب، میتوانند بنگاهها، روزنامهنگاران و خوانندگان حرفهای را متاثر کنند. به این شکل که تراکم زیاد محتوای خودکار، کم شدن مشارکت انسانی و تولید اخبار شخصیسازیشده که موجب کاهش تنوع اخبار و اطلاعات میشود، این خطرات را بالفعل میکند. به همین دلیل است که به کارگیری هوش مصنوعی در روزنامهنگاری به بررسی دقیق و مدیریت این خطرات نیاز دارد.
به دلیل توسعه سریع هوش مصنوعی در تحریریهها، احساس میشود که پایداری درآمد و امنیت شغلی اصحاب رسانه در این حوزه یک موضوع اساسی است. در بدترین حالت ممکن، خودکارسازی هوشمند میتواند با کم کردن نقش سنتی روزنامهنگاران در این صنعت، موجب کاهش فرصتهای شغلی و به خطر افتادن امنیت شغلی کارکنان فعلی این حوزه شود.
به کارگیری این هوش در تحریریهها، به خودکارشدن وظایف و کارهای مرتبط با رسانه شده و این مساله روزنامهنگاران را برای بقای شغلی به آموختن مهارتهای جدید در حوزه هوش مصنوعی و برنامهنویسی واداشته است. به کارگیری هوش مصنوعی در رسانه، زمانی مفید واقع میشود که میان خطرات و فرصتهای احتمالی آن توازن برقرار باشد.
با رشد دقت و کارایی ابزارهای هوشمند، وظایف و کارهایی که به صورت سنتی توسط انسانها در حوزه خبر مانند تحلیل اخبار و اطلاعات، خلاصهسازی و تهیه گزارشهای خبری معمولی، به هوش مصنوعی سپرده شده است و بنگاههای خبری احتمالا برای تولید محتوا و بهینهسازی فرایندهای شغلی خود، بیش از پیش به این فناوری وابسته شود. در نتیجه بسیاری از مشاغل فعلی، غیرضروی و زائد تلقی شده(Simon, ۲۰۲۲) و به تدریج از بین خواهد رفت.
این امر با بی ارزش شدن مهارتهای و تخصصهای حرفهای اصحاب رسانه، به احساس نامنی شغلی و تهدید بیکار شدن خواهد انجامید. همان طور که برخی از رسانههای مانند شرکت مایکروسافت در سال ۲۰۲۰ با جایگزین کردن هوش مصنوعی تعدادی از کارکنان خود را اخراج کرد (Boulanger, ۲۰۲۰). علاوه بر این، پژوهشها نشان میدهند تولیدگر پیشآموزشدیده (GPT) میتواند ۸۰ درصد از نیروی کار ایالات متحده تأثیر به ویژه بر نویسندگان، گزارشگران و روزنامهنگاران که آسیبپذیری بیشتری دارند، دستخوش تغییر قرار دهد. (Eloundou et al., ۲۰۲۳).
اثرگذاری هوش مصنوعی بر شغل و امنیت شغلی
به جز نگرانیهای مرتبط با اثرگذاری این هوش بر شغل و امنیت شغلی، به کارگیری شتابان فناوریهای هوشمند در صنعت خبر، پیامدهای منفی اجتماعی و اخلاقی درپی داشته است. همان طورکه گفته شد، هوش مصنوعی، میتواند رویههای سنتی مدلهای جا افتاده تجاری در این صنعت را با اختلال مواجه کند.
از آنجایی که سامانههای خودکار میتوانند محتوای خبری را با سرعت و البته هزینه کمتری تولید کنند، بنگاههای خبری با وابستگی فزاینده به این ابزارها، کارکنان خود را کاهش دهند. این نکته که هوش مصنوعی در عین ایجاد فرصتهای شغلی جدید به قطبی شدن مشاغل و نابرابری درآمدی منجر شود. در این صورت، خطر افزایش شکاف مهارتی به واسطه بیکار شدن کارکنانی که از مهارتهای لازم برای کار با هوش مصنوعی ندارند، بالا میرود. انجام وظایف روزمره رسانهای بوسیله هوش مصنوعی دقیقا نقطهای است که شکاف میان مشاغل نیازمند به مهارتهای بالای جدید با شغلهایی کمتر مهارتی خودش را نشان میدهد.
در کل این نگرانی وجود دارد که تاثیرات عمیق AI بر صنعت رسانه و روزنامهنگاری به تشدید نابرابریهای موجود در اجتماعات انسانی منجر شود. بر اساس بررسی انجام شده توسط دو پژوهشگر به نامهای (Acemoglu & Restrepo, ۲۰۲۲)، استفاده از فناوریهای خودکار و هوشمند در ایالات متحده باعث ایجاد نابرابری درآمدی با کاهش دستمزد کارکنان مشاغل کمتر تخصصی شده است.
با توجه به نقش مهم رسانههای در بازتاب و شکلدهی به افکارعمومی و انتشار اخبار، در صورت مختل شدن کارکرد مذکور، به جز موضوع نابرابری درآمدی، نابرابری اجتماعی نیز شدت خواهد گرفت. هم چنین، شخصیسازی محتوا، ممکن است نقش سنتی روزنامهنگاری به مثابه یک خدمت عمومی را کمرنگ کرده و آن را به وسیلهای برای بازاریابی تبدیل کند. کما این که بهرهگیری از ابزارهای دادهمحور استقلال تحریریههای خبر را تهدید خواهد کرد. (Milosavljević & Vobič, ۲۰۱۹).
هوش مصنوعی و وظیفه خبرنگار
راهحلهایی که هوش مصنوعی ارائه میدهد، ممکن است با تاثیرات آبشاری همراه باشد. به این شکل که وظیفه خبرنگاران را از نگارش خبر به مدیریت دادهها، ویرایش مطالب خودکار برای قابل فهم ترشدن متن و جلوتر از آن حذف رسانههای سنتی با ارائه مستقیم محتوای خودکار در حوزههای خبری به ویژه ورزشی، تغییر دهد. (Kunert, ۲۰۲۰). تاثیرات چندبعدی هوش مصنوعی بر بازارکار و صنعت رسانه در این تاثیرات عمیق قابل مشاهده است.
خطر اصلی این است که با کم شدن نقش خبرنگاران، تواناییهایی پژوهشی و تفکر نقاد نیز کاهش یابد. تکیه کردن بیش از اندازه به ابزارهای هوشمند با کاستن از نقش عامل انسانی و فرسایش مهارتهای خاص انسانی، کیفیت کلی روزنامهنگاری تحت تاثیر ابعاد (مخرب) خود قرار دهد.
خودکارسازی بیش از حد، خلاقیت و نوآوری را خفه خوهد کرد و احتمال تولید انبوه محتواها و روایتهایی که صرفا براساس الگورتیمهای از پیش تعیین شده برای تعامل با مخاطب طراحی شده را افزایش میدهد. اگر ماشینها بدون نظارت انسانها مدیریت کارها را تصاحب کنند، خطر واقعی خود را نشان خواهد داد. به همین دلیل است که توسعه مهارتهای مرتبط با رسانه برای راهبری و شکلدهی به این سامانهها ضروری است.
همانطور که گفته شد، ابزارهای هوشمند با محدودیتهایی همراه هستند که به میتواند موجب کاهش دقت و انسجام محتواهای خبری شود. دلیل این مساله هم در ضعف ماشینها در درک بافتار و زمینه رویدادها و یا تفسیر نامناسب اطلاعات دریافتی روی دهد. به همین خاطر است که استفاده از هوش مصنوعی به دقت، همفکری و مشورت(نخبگان) و قانونگذاری بیشتری نیاز دارد.
هوش مصنوعی با خود خطرات جدیدی مانند سوگیری الگوریتمی، افزایش اطلاعات نادرست و حبابهای اطلاعاتی(حباب فیلتر) را خلق کرده است. این خطرات با احتمال ایجاد سوگیری و خطا در تولید محتوا، اشاعه اخبار نادرست، جعل عمیق(Deepfake)، نقض حریم خصوصی، انسانزدایی، فرسایش اعتبار مراجع خبری، توانایی تهدید انسجام و کیفیت روزنامهنگاری را دارد. با این وصف، مدیریت ریسک به عنوان اقدامی ضروری در استفاده از فناوری مذکور باید مورد توجه قرار گیرد.
اصحاب رسانه بدون توجه به برخی پیامدها یا معضلات احتمالی با شتاب در حال استفاده از هوش مصنوعی هستند. علیرغم مزیتها و امکانات قابل توجه این ابزارها، بحثهای زیادی درباره خطرات احتمالی آن از جمله سوگیرهای الگوریتمی شکل گرفته است. مطابق با گزارش JournalismAI ۶۰ درصد از پاسخدهندگان، نگرانی خود را در مورد سوگیری الگوریتمی که به انتشار مطالب نادرست یا مغرضانه منجر میشود، ابراز کردهاند. (Beckett, ۲۰۱۹).
سوگیری مذکور از دادههای آموزشی ناقص و یا اتکاء بیش از حد به اطلاعات و دادههای نادرست و معیوب حاصل میشود و در نهایت خود را در شکل سوگیری تولیدی در اطلاعات ورودی و خروجی مطلب نشان دهد. این مشکل در مورد ورودی اطلاعات آموزشی به مدلهای هوش مصنوعی و دادههای جمعآوری شده موقع تهیه و تنظیم گزارشهای خبری، هم دیده میشوند. سوء مدیریت در فرآیند ورود دادهها به اشتباهاتی مانند تحریف واقعیت و تبعیض علیه گروههای خاص اجتماعی و فکری منجر خواهد شد.
بسیاری، الگوریتمها را ابزارهای منطقی، بیطرف، کارآمد و قابل اتکا محسوب میکنند، ولی به دلیل این که در نهایت این ابزارهای با کدنویسی انسانی کار میکنند، منطقا فرآوردههای خبری آنها به نوعی بازتابی از سوگیریهای کسانی است که آن کدها را نوشتهاند. این گونه است که تعجبی ندارد که فرآوردههای محتوایی تولید شده توسط هوش مصنوعی ذاتا با سوگیری همراه باشند.
اشکال اصلی این سوگیریها عبارتند از سوگیری داده و تبعیض الگوریتمی(Strauß, ۲۰۲۱). و این سوگیریهای به صورت ناخواسته در تولید محتواهایی هوش مصنوعی حضور مییابند و بازتولید آنها، تعصبات و خطاها را در سطح جامعه بازنشر میکنند. این موضوع تهدیدی واقعی برای بیطرف بودن روزنامهنگاری بوده و نگرانیهایی موجود در این حوزه را افزایش میدهد. از این منظر، الگوریتمهای ناقص، با سوگیریهای جنسیتی و نژادی به گروههای اجتماعی خاص در جامعه آسیب خواهند رسانید. مدلهای هوش مصنوعی با استفاده از دادههای تاریخی یاد میگیرند و شاید آن مجموعهها با سوگیریهای خاص تهیه شده باشند (Guzman & Lewis, ۲۰۲۰) که به تداوم نابرابریهای و تعصبات دامنه زده و خبرنگاری عادلانه و بیطرفانه را نقض خواهند کرد.
سوگیریهای موجود در الگوریتمهای هوش مصنوعی به خاطر متنوع نبودن دادههای آموزشی(van Dalen, ۲۰۱۲) و تأثیرگذاری مولفههای مقوم نظام ارزشی طراحان الگوریتم به وجود بیاید. هوش مصنوعی هم با مواد و منابع دادهای آلودهای آموزش دیده است، همان آنها بازتولید می کند. به ویژه آن که دادههای آموزش داده شده، مواضع خاص سیاسی و ایدئولوژیک را پوشش داده باشد. (Ferrara, ۲۰۲۳)
سوگیری منفی رسانهای با تاثیرگذاری بر مصرفکنندگان و مشتریان رسانه، حتی میتواند رفتارهای سیاسی و انتخاباتی آنان را دستخوش تغییر کند و از این رو، با جانبداری از یک گروه یا دیدگاه سیاسی خاص، مشکلات حقوقی، اجتماعی و سیاسی در جامعه ایجاد کند. به جز این، ملاحظاتی در خصوص افزایش فریبکاری در صنعت رسانه به استفاده از ابزارهای هوشمند وجود دارد به این شکل که به خاطر پیچیده بودن مدلهای پرداش زبان در هوش مصنوعی، احتمال تولید محتواهای جانبدارانه و اخبار غیرواقعی که حق آگاه بودم مردم و مشتریان از واقعیت و اطلاعات صحیح مخدوش شود، وجود دارد. این مسیر در پایان به گسترش خبرسازی و روزنامهنگاری کمکیفیت ختم خواهد شد که در آن اعتماد و احترام عمومی به حرفه روزنامهنگاری کاهش یافته و خطر مشروعیت بخشیدن به اقدامات کسانی که درصدد بستن دهان منتقدان هستند با حمله به رسانههای خبری مستقل، افزایش پیدا کند. (Ireton & Posetti, ۲۰۱۸)
سوگیریهای الگوریتمی میتواند بهطور چشمگیری بر خروجیهای پیشنهادی ابزارهای هوشمند تاثیر گذاشته و با دستکاری در ترجیحات کاربران، حریم خصوصی آنان را نقص خواهد کرد. (Himeur et al., ۲۰۲۲)
علاوه بر این، محتوای خبری شخصیسازیشدهای که بر اساس سلایق و ترجیحات کاربران تولید میشود، با ایجاد حبابهای اطلاعاتی به تحدید تنوع آراء و تقویت سوگیریها و قطبی شدن سیاسی و اجتماعی دامن بزند. زیرا این حبابها عمدتا خوانندگان را در معرض اطلاعاتی قرار میدهند که با علایق و باورهای قبلی آنان همخوانی بیشتری دارد.
خطر دیگر این است که این ابزارهای هوشمند بهصورت مکرر همان منابع خبری مورد اعتماد و شناختهشده را توصیه کنند و با تنوع اطلاعات، صداهای جدید یا منابع کمتر شناختهشده را از جریان خبری حذف کنند. (Opdahl et al., ۲۰۲۳) نتیجه حاصل از این امر این است که رسانههای هوشمند شده با تشویق مخاطبان به مشاهده محتواهایی که دیدگاههای قبلی آنان را تایید و تقویت میکند، موجب شود مخاطبان، دیدگاههای دیگر یا موارد مربوط به اقلیتهای سیاسی و فرهنگی را نادیده بگیرند. این موضوع در تضاد با رسالت رسانهها برای انعکاس و تضمین تنوع اطلاعات و اخبار در جامعه قرار میگیرد. (Helberger, ۲۰۱۹)
با توجه به این که الگوریتمهای هوش مصنوعی برای تولید محتوا به مجموعهدادهها وابسته هستند، احتمال این که سوگیریهای موجود آن دادهها توسط هوش مصنوعی برای تولید محتوا به کار گرفته شوند، زیاد بوده و روایتها و گزارشهای اشتباهی که در تولیدات هوش مصنوعی وجود دارد، ناشی از این نقص است. به عنوان مثال، در سال ۲۰۱۵، نرمافزار تولید محتوای خبری به اشتباه گزارشی را تهیه کرد که در آن ادعا شده بود، سهام نتفلیکس افت کرده است، در حالی که در واقعیت سهام نتفلیکس دو برابر شده بود. (Zhn, ۲۰۲۳).
نبود عامل انسانی برای نظارت در فرآیندهای مختلف تولید میتواند به اشتباه سیستم و در نتیجه تولید محتوای نادرست و سوگیرانه منجر شود. استفاده بیضابطه از هوش مصنوعی در تولید خبر و محتوای خبر، امکان به خطر انداختن دقت اخبار را دارد. بنابراین، به کارگیری دادههای بدون سوگیری، تمیز و به سامان برای تولید محتوای خبری صحیح و قابل اعتماد خودکار ضروری است.
الگوریتمهای این هوش، امکان پوشش دادن به طیف گستردهای از موضوعات و منابع مانند شبکههای اجتماعی و محتواهای برخط را دارند و میتوانند اخبار و گزارشهای خبری را با سرعت و کارآ، به ویژه در بخش تهیه اخبار زنده و لحظه به لحظه تهیه کنند.
با این حال، همانطور که قبلا گفته شد، خطر اشتباه بودن و سوگیری داشتن این محتواها وجود دارد؛ زیرا الگوریتمها فقط به اندازهای بیطرف هستند که از طریق دادههای اولیه به آنها آموزش دادهاند. با این که مدلهای پیشرفته هوش مصنوعی از انبوده دادههای متنی موجود در فضای وب برای دادن پاسخهای بهتر، استفاده میکند اما نمیتواند تشخیص دهد که کدام دادهها و منابع قابل اعتماد و کدام یک، اشتباه هستند. این ناتوانی در نهایت به تولید احتمالی پاسخهایی مبتنی بر اطلاعات غلط یا گمراهکننده منجر میشود که صحت اطلاعات را به خطر اندازد. (Pocino, ۲۰۲۱).
اهمیت مهارتهای سواد دیجیتال و رسانهای
این یافتهها بر اهمیت مهارتهای سواد دیجیتال و رسانهای در استفاده از این سیستمها تأکید میکنند؛ بدون آموزش و نظارت دقیق، ابزارهای هوش مصنوعی میتوانند به طور ناخواسته اطلاعات گمراهکننده و نادرست تولید یا تقویت کنند و به گسترش اطلاعات نادرست و سردرگمی عمومی کمک کنند.
در همین راستا، نگرانیهایی مبنی بر نبود قضاوت و نظارت انسانی در تولید محتوای خبری خودکار وجود دارد که در آن در مورد این که این فرآیند موجب تولید محتواهای سوگیرانه، اشتباه و گمراهکننده در روزنامهنگاری خواهد شد، بحث میشود. بنگاههای خبری از ابزارهای هوشمند برای تهیه گزارشهای خبری استفاده میکنند در صورت بروز اشتباه با واکنش و انتقاد عمومی مواجه خواهند شد.
به علاوه به دلیل، عدم اعلام منابع در تولید محتواهای هوشمند، تایید صحت اطلاعات را سختتر میکند. شواهدی در دست است که نشان میدهد سطح اعتماد عمومی به محتواهای خبری خودکار در حال کاهش است؛ بررسیها نشان میدهند که خوانندگان معمولاً اخبار نوشتهشده توسط ماشین را به نسبت گزارشهایی که توسط روزنامهنگاران انسانی نوشتهشده، کم دقتتر به شمار میآورند. (Longoni et al., ۲۰۲۲)
یافتههای فوق، بر اهمیت آموزش سواد دیجیتال و رسانهای در استفاده از این سامانهها تأکید دارند؛ زیرا در صورت غفلت از آموزش و نظارت دقیق، ابزارهای هوشمند، بهطور ناخواسته اطلاعات نادرست یا گمراهکننده را تولید و تقویت کرده و از این مسیر به گسترش اخبار نادرست و در نتیجه سردرگم کردن مردم و خوانندگان دامن بزنند.
براساس یافتههای پژوهش کیم (Kim, ۲۰۱۹) تقریباً ۶۰ درصد از محتواهای خبری خودکار در سکوهای رسانهای مختلف با هدف تامین منافع سیاسی، اقتصادی و اجتماعی، جعلی هستند. به همین خاطر انتشار اطلاعات نادرست برای نقش و اعتبار روزنامهنگاری به عنوان یک منبع قابل اعتماد در جامعه، تهدید به شمار میآید.
با وجود پیشرفتهای فناورانه، نقش نظارتی عامل انسانیانسانی برای شناسایی منابع غیرقابل اعتماد و اطلاعات نادرست و زیانبار حیاتی باقی میماند. سازمانهای راستیآزمایی و کارشناسان آنها به دلیل حجم زیاد محتواهای خبری جعل و نادرست و هم چنین پیچیدگی رباتهای که اخبار و محتواهای جعلی تولید میکنند دچار مشکلات و چالشهای زیادی شدهاند. (Demartini et al., ۲۰۲۰)
مساله اصلی این است که با نبود نظارت انسانی بر محتواهای تولیدی خودکار، احتمال عبور اخبار نادرست از فرآیندهای راستیآزمایی روزنامهنگاران بیشتر میشود. در شرایط عادی، روزنامهنگاران از به مهارتهای راستیآزمایی سنتی خود استفاده میکنند که اتفاقا در بسیاری از موارد کارآمد هستند؛ اما در شرایطی که برای انتشار سریع خبرها با محدودیتها و فشار زمانی مواجه شوند، احتمال دارد که تجربه و قضاوت حرفهای خود را بر راستیآزمایی محتواهای مزبور ترجیح دهند و ناخواسته اطلاعات ارزیابی نشده یا نادرست را منتشر کنند (Santos, ۲۰۲۳)
ناتوانی الگوریتمها در فیلتر کردن محتواهای نادرست یا زیانبار موجب نگرانی درباره توانایی اتاقهای خبر در محافظت از کاربران در برابر اطلاعات گمراهکننده شده است. این مسئله بر اهمیت حفظ استانداردهای اصلی روزنامهنگاری حتی در شرایط کاری سخت و فشرده برای تضمین دقت و قابل اعتماد بودن محتواهای خبری تاکید میکند.
موارد منفی مطروحه در این مقاله، نباید بهعنوان عدم استفاده از این هوش تلقی شوند، بلکه باید از آنها برای تعیین الزامات استفاده هدفمند، ایمن و موثر از این فناوری بهره برد. اضافه شدن هوش مصنوعی به بنگاههای خبری، فرصتهای خوبی را برای ارتقای روزنامهنگاری به دست میدهد؛ اما رسانهها باید با احتیاط و این قید که حفظ ارزشهای اصلی رسانه یعنی دقت، بیطرفی و تکثر دیدگاهها در اولویت هستند، از این فناوری استفاده کنند.
برای بهرهگیری از مزایای هوش مصنوعی در روزنامهنگاری و در عین حال کاهش خطرات احتمالی آن، اقداماتی چون توسعه مسئولانه، شفافیت الگوریتمی، حفظ کنترل کاربر و تقویت سواد رسانهای ضروری هستند. در پایان باید گفت: ایجاد توازن و تعادل میان نوآوری مبتنی بر فناوری از یک سو و حفظ یکپارچگی و انسجام روزنامهنگاری از سویی دیگر، برای فراهم بودن محیط اطلاعاتی و خبری سالم و آگاهیبخش برای مردم، ضروری است.
