جهان

خطرات استفاده از  هوش مصنوعی در روزنامه‌نگاری

اصحاب رسانه بدون توجه به برخی پیامدها یا معضلات احتمالی با شتاب در حال استفاده از هوش مصنوعی هستند. علی‌رغم مزیت‌ها و امکانات قابل توجه این ابزارها، بحث‌های زیادی درباره خطرات احتمالی آن از جمله سوگیرهای الگوریتمی شکل گرفته است.

به گزارش ایرنا یادداشت‌هایی با عنوان «تاثیر هوش مصنوعی بر رسانه‌ها، محدودیت‌ها و مخاطره‌ها» و «هوش مصنوعی در روزنامه‌نگاری: محدودیت‌ها و مخاطرات» نوشته «حسن بن عُشان» با ترجمه «جعفر انصاری فر» به نقش هوش مصنوعی در تولید محتوا و اتاق خبر اختصاص داشت. در ادامه بخش سوم این یادداشت می‌خوانیم:

بنگاه‌های خبری و هوش مصنوعی

بنگاه‌های خبری از هوش مصنوعی برای انجام کارهایی مانند برچسب‌گذاری خودکار محتوا، گردآوری اخبار، تولید و توزیع خبر استفاده می‌کنند. ابزارهای هوشمند با این که مزیت‌های درخور توجهی برای روزنامه‌نگاری دارد، ولی خطراتی نیز وجود دارد که این اثر این مزیت‌ها را کاهش می‌دهد.

خطرات احتمالی مذکور با منشاء سوگیری داده‌های آموزشی، خطاهای سیستمی، کم شدن نیروی کار و مدیریت نامناسب، می‌توانند بنگاه‌ها، روزنامه‌نگاران و خوانندگان حرفه‌ای را متاثر کنند. به این شکل که تراکم زیاد محتوای خودکار، کم شدن مشارکت انسانی و تولید اخبار شخصی‌سازی‌شده که موجب کاهش تنوع اخبار و اطلاعات می‌شود، این خطرات را بالفعل می‌کند. به همین دلیل است که به کارگیری هوش مصنوعی در روزنامه‌نگاری به بررسی دقیق و مدیریت این خطرات نیاز دارد.

به دلیل توسعه سریع هوش مصنوعی در تحریریه‌ها، احساس می‌شود که پایداری درآمد و امنیت شغلی اصحاب رسانه در این حوزه یک موضوع اساسی است. در بدترین حالت ممکن، خودکارسازی هوشمند می‌تواند با کم کردن نقش سنتی روزنامه‌نگاران در این صنعت، موجب کاهش فرصت‌های شغلی و به خطر افتادن امنیت شغلی کارکنان فعلی این حوزه شود.

به کارگیری این هوش در تحریریه‌ها، به خودکارشدن وظایف و کارهای مرتبط با رسانه شده و این مساله روزنامه‌نگاران را برای بقای شغلی به آموختن مهارت‌های جدید در حوزه هوش مصنوعی و برنامه‌نویسی واداشته است. به کارگیری هوش مصنوعی در رسانه، زمانی مفید واقع می‌شود که میان خطرات و فرصت‌های احتمالی آن توازن برقرار باشد.

با رشد دقت و کارایی ابزارهای هوشمند، وظایف و کارهایی که به صورت سنتی توسط انسان‌ها در حوزه خبر مانند تحلیل اخبار و اطلاعات، خلاصه‌سازی و تهیه گزارش‌های خبری معمولی، به هوش مصنوعی سپرده شده است و بنگاه‌های خبری احتمالا برای تولید محتوا و بهینه‌سازی فرایندهای شغلی خود، بیش از پیش به این فناوری وابسته شود. در نتیجه بسیاری از مشاغل فعلی، غیرضروی و زائد تلقی شده(Simon, ۲۰۲۲) و به تدریج از بین خواهد رفت.

این امر با بی ارزش شدن مهارت‌های و تخصص‌های حرفه‌ای اصحاب رسانه، به احساس نامنی شغلی و تهدید بیکار شدن خواهد انجامید. همان طور که برخی از رسانه‌های مانند شرکت مایکروسافت در سال ۲۰۲۰ با جایگزین کردن هوش مصنوعی تعدادی از کارکنان خود را اخراج کرد (Boulanger, ۲۰۲۰). علاوه بر این، پژوهش‌ها نشان می‌دهند تولیدگر پیش‌آموزش‌دیده (GPT) می‌تواند ۸۰ درصد از نیروی کار ایالات متحده تأثیر به ویژه بر نویسندگان، گزارشگران و روزنامه‌نگاران که آسیب‌پذیری بیشتری دارند، دستخوش تغییر قرار دهد. (Eloundou et al., ۲۰۲۳).

خطرات احتمالی استفاده از  هوش مصنوعی در رسانه

اثرگذاری هوش مصنوعی بر شغل و امنیت شغلی

به جز نگرانی‌های مرتبط با اثرگذاری این هوش بر شغل و امنیت شغلی، به کارگیری شتابان فناوری‌های هوشمند در صنعت خبر، پیامدهای منفی اجتماعی و اخلاقی درپی داشته است. همان طورکه گفته شد، هوش مصنوعی، می‌تواند رویه‌های سنتی مدل‌های جا افتاده تجاری در این صنعت را با اختلال مواجه کند.

از آنجایی که سامانه‌های خودکار می‌توانند محتوای خبری را با سرعت و البته هزینه کمتری تولید کنند، بنگاه‌های خبری با وابستگی فزاینده به این ابزارها، کارکنان خود را کاهش دهند. این نکته که هوش مصنوعی در عین ایجاد فرصت‌های شغلی جدید به قطبی شدن مشاغل و نابرابری درآمدی منجر شود. در این صورت، خطر افزایش شکاف مهارتی به واسطه بیکار شدن کارکنانی که از مهارت‌های لازم برای کار با هوش مصنوعی ندارند، بالا می‌رود. انجام وظایف روزمره رسانه‌ای بوسیله هوش مصنوعی دقیقا نقطه‌ای است که شکاف میان مشاغل نیازمند به مهارت‌های بالای جدید با شغل‌هایی کمتر مهارتی خودش را نشان می‌دهد.

در کل این نگرانی وجود دارد که تاثیرات عمیق AI بر صنعت رسانه و روزنامه‌نگاری به تشدید نابرابری‌های موجود در اجتماعات انسانی منجر شود. بر اساس بررسی انجام شده توسط دو پژوهشگر به نام‌های (Acemoglu & Restrepo, ۲۰۲۲)، استفاده از فناوری‌های خودکار و هوشمند در ایالات متحده باعث ایجاد نابرابری درآمدی با کاهش دستمزد کارکنان مشاغل کمتر تخصصی شده است.

با توجه به نقش مهم رسانه‌های در بازتاب و شکل‌دهی به افکارعمومی و انتشار اخبار، در صورت مختل شدن کارکرد مذکور، به جز موضوع نابرابری درآمدی، نابرابری اجتماعی نیز شدت خواهد گرفت. هم چنین، شخصی‌سازی محتوا، ممکن است نقش سنتی روزنامه‌نگاری به مثابه یک خدمت عمومی را کمرنگ کرده و آن را به وسیله‌ای برای بازاریابی تبدیل کند. کما این که بهره‌گیری از ابزارهای داده‌محور استقلال تحریریه‌های خبر را تهدید خواهد کرد. (Milosavljević & Vobič, ۲۰۱۹).

هوش مصنوعی و وظیفه خبرنگار

راه‌حل‌هایی که هوش مصنوعی ارائه می‌دهد، ممکن است با تاثیرات آبشاری همراه باشد. به این شکل که وظیفه خبرنگاران را از نگارش خبر به مدیریت داده‌ها، ویرایش مطالب خودکار برای قابل فهم ‌ترشدن متن و جلوتر از آن حذف رسانه‌های سنتی با ارائه مستقیم محتوای خودکار در حوزه‌های خبری به ویژه ورزشی، تغییر دهد. (Kunert, ۲۰۲۰). تاثیرات چندبعدی هوش مصنوعی بر بازارکار و صنعت رسانه در این تاثیرات عمیق قابل مشاهده است.

خطر اصلی این است که با کم شدن نقش خبرنگاران، توانایی‌هایی پژوهشی و تفکر نقاد نیز کاهش یابد. تکیه کردن بیش از اندازه به ابزارهای هوشمند با کاستن از نقش عامل انسانی و فرسایش مهارت‌های خاص انسانی، کیفیت کلی روزنامه‌نگاری تحت تاثیر ابعاد (مخرب) خود قرار دهد.

خودکارسازی بیش از حد، خلاقیت و نوآوری را خفه خوهد کرد و احتمال تولید انبوه محتواها و روایت‌هایی که صرفا براساس الگورتیم‌های از پیش تعیین شده برای تعامل با مخاطب طراحی شده را افزایش می‌دهد. اگر ماشین‌ها بدون نظارت انسان‌ها مدیریت کارها را تصاحب کنند، خطر واقعی خود را نشان خواهد داد. به همین دلیل است که توسعه مهارت‌های مرتبط با رسانه برای راهبری و شکل‌دهی به این سامانه‌ها ضروری است.

همان‌طور که گفته شد، ابزارهای هوشمند با محدودیت‌هایی همراه هستند که به می‌تواند موجب کاهش دقت و انسجام محتواهای خبری شود. دلیل این مساله هم در ضعف ماشین‌ها در درک بافتار و زمینه رویدادها و یا تفسیر نامناسب اطلاعات دریافتی روی دهد. به همین خاطر است که استفاده از هوش مصنوعی به دقت، همفکری و مشورت(نخبگان) و قانون‌گذاری بیشتری نیاز دارد.

هوش مصنوعی با خود خطرات جدیدی مانند سوگیری الگوریتمی، افزایش اطلاعات نادرست و حباب‌های اطلاعاتی(حباب فیلتر) را خلق کرده است. این خطرات با احتمال ایجاد سوگیری و خطا در تولید محتوا، اشاعه اخبار نادرست، جعل عمیق(Deepfake)، نقض حریم خصوصی، انسان‌زدایی، فرسایش اعتبار مراجع خبری، توانایی تهدید انسجام و کیفیت روزنامه‌نگاری را دارد. با این وصف، مدیریت ریسک به عنوان اقدامی ضروری در استفاده از فناوری مذکور باید مورد توجه قرار گیرد.

اصحاب رسانه بدون توجه به برخی پیامدها یا معضلات احتمالی با شتاب در حال استفاده از هوش مصنوعی هستند. علی‌رغم مزیت‌ها و امکانات قابل توجه این ابزارها، بحث‌های زیادی درباره خطرات احتمالی آن از جمله سوگیرهای الگوریتمی شکل گرفته است. مطابق با گزارش JournalismAI ۶۰ درصد از پاسخ‌دهندگان، نگرانی خود را در مورد سوگیری الگوریتمی که به انتشار مطالب نادرست یا مغرضانه منجر می‌شود، ابراز کرده‌اند. (Beckett, ۲۰۱۹).

سوگیری مذکور از داده‌های آموزشی ناقص و یا اتکاء بیش از حد به اطلاعات و داده‌های نادرست و معیوب حاصل می‌شود و در نهایت خود را در شکل سوگیری تولیدی در اطلاعات ورودی و خروجی مطلب نشان دهد. این مشکل در مورد ورودی اطلاعات آموزشی به مدل‌های هوش مصنوعی و داده‌های جمع‌آوری شده موقع تهیه و تنظیم گزارش‌های خبری، هم دیده می‌شوند. سوء مدیریت در فرآیند ورود داده‌ها به اشتباهاتی مانند تحریف واقعیت و تبعیض علیه گروه‌های خاص اجتماعی و فکری منجر خواهد شد.

بسیاری، الگوریتم‌ها را ابزارهای منطقی، بی‌طرف، کارآمد و قابل اتکا محسوب می‌کنند، ولی به دلیل این که در نهایت این ابزارهای با کدنویسی انسانی کار می‌کنند، منطقا فرآورده‌های خبری آن‌ها به نوعی بازتابی از سوگیری‌های کسانی است که آن کدها را نوشته‌اند. این گونه است که تعجبی ندارد که فرآورده‌های محتوایی تولید شده توسط هوش مصنوعی ذاتا با سوگیری همراه باشند.

اشکال اصلی این سوگیری‌ها عبارتند از سوگیری داده و تبعیض الگوریتمی(Strauß, ۲۰۲۱). و این سوگیری‌های به صورت ناخواسته در تولید محتواهایی هوش مصنوعی حضور می‌یابند و بازتولید آن‌ها، تعصبات و خطاها را در سطح جامعه بازنشر می‌کنند. این موضوع تهدیدی واقعی برای بی‌طرف بودن روزنامه‌نگاری بوده و نگرانی‌هایی موجود در این حوزه را افزایش می‌دهد. از این منظر، الگوریتم‌های ناقص، با سوگیری‌های جنسیتی و نژادی به گروه‌های اجتماعی خاص در جامعه آسیب خواهند رسانید. مدل‌های هوش مصنوعی با استفاده از داده‌های تاریخی یاد می‌گیرند و شاید آن مجموعه‌ها با سوگیری‌های خاص تهیه شده باشند (Guzman & Lewis, ۲۰۲۰) که به تداوم نابرابری‌های و تعصبات دامنه زده و خبرنگاری عادلانه و بی‌طرفانه را نقض خواهند کرد.

سوگیری‌های موجود در الگوریتم‌های هوش مصنوعی به خاطر متنوع نبودن داده‌های آموزشی(van Dalen, ۲۰۱۲) و تأثیرگذاری مولفه‌های مقوم نظام ارزشی طراحان الگوریتم به وجود بیاید. هوش مصنوعی هم با مواد و منابع داده‌ای آلوده‌ای آموزش دیده است، همان آن‌ها بازتولید می کند. به ویژه آن که داده‌های آموزش داده شده، مواضع خاص سیاسی و ایدئولوژیک را پوشش داده باشد. (Ferrara, ۲۰۲۳)

سوگیری منفی رسانه‌ای با تاثیرگذاری بر مصرف‌کنندگان و مشتریان رسانه، حتی می‌تواند رفتارهای سیاسی و انتخاباتی آنان را دستخوش تغییر کند و از این رو، با جانبداری از یک گروه یا دیدگاه سیاسی خاص، مشکلات حقوقی، اجتماعی و سیاسی در جامعه ایجاد کند. به جز این، ملاحظاتی در خصوص افزایش فریب‌کاری در صنعت رسانه به استفاده از ابزارهای هوشمند وجود دارد به این شکل که به خاطر پیچیده بودن مدل‌های پرداش زبان در هوش مصنوعی، احتمال تولید محتواهای جانبدارانه و اخبار غیرواقعی که حق آگاه بودم مردم و مشتریان از واقعیت و اطلاعات صحیح مخدوش شود، وجود دارد. این مسیر در پایان به گسترش خبرسازی و روزنامه‌نگاری کم‌کیفیت ختم خواهد شد که در آن اعتماد و احترام عمومی به حرفه روزنامه‌نگاری کاهش یافته و خطر مشروعیت بخشیدن به اقدامات کسانی که درصدد بستن دهان منتقدان هستند با حمله به رسانه‌های خبری مستقل، افزایش پیدا کند. (Ireton & Posetti, ۲۰۱۸)

سوگیری‌های الگوریتمی می‌تواند به‌طور چشمگیری بر خروجی‌های پیشنهادی ابزارهای هوشمند تاثیر گذاشته و با دست‌کاری در ترجیحات کاربران، حریم خصوصی آنان را نقص خواهد کرد. (Himeur et al., ۲۰۲۲)

علاوه بر این، محتوای خبری شخصی‌سازی‌شده‌ای که بر اساس سلایق و ترجیحات کاربران تولید می‌شود، با ایجاد حباب‌های اطلاعاتی به تحدید تنوع آراء و تقویت سوگیری‌ها و قطبی شدن سیاسی و اجتماعی دامن بزند. زیرا این حباب‌ها عمدتا خوانندگان را در معرض اطلاعاتی قرار می‌دهند که با علایق و باورهای قبلی آنان هم‌خوانی بیشتری دارد.

خطر دیگر این است که این ابزارهای هوشمند به‌صورت مکرر همان منابع خبری مورد اعتماد و شناخته‌شده را توصیه کنند و با تنوع اطلاعات، صداهای جدید یا منابع کمتر شناخته‌شده را از جریان خبری حذف ‌کنند. (Opdahl et al., ۲۰۲۳) نتیجه حاصل از این امر این است که رسانه‌های هوشمند شده با تشویق مخاطبان به مشاهده محتواهایی که دیدگاه‌های قبلی آنان را تایید و تقویت می‌کند، موجب شود مخاطبان، دیدگاه‌های دیگر یا موارد مربوط به اقلیت‌های سیاسی و فرهنگی را نادیده بگیرند. این موضوع در تضاد با رسالت رسانه‌ها برای انعکاس و تضمین تنوع اطلاعات و اخبار در جامعه قرار می‌گیرد. (Helberger, ۲۰۱۹)

با توجه به این که الگوریتم‌های هوش مصنوعی برای تولید محتوا به مجموعه‌داده‌ها وابسته هستند، احتمال این که سوگیری‌های موجود آن داده‌ها توسط هوش مصنوعی برای تولید محتوا به کار گرفته شوند، زیاد بوده و روایت‌ها و گزارش‌های اشتباهی که در تولیدات هوش مصنوعی وجود دارد، ناشی از این نقص است. به عنوان مثال، در سال ۲۰۱۵، نرم‌افزار تولید محتوای خبری به اشتباه گزارشی را تهیه کرد که در آن ادعا شده بود، سهام نتفلیکس افت کرده است، در حالی که در واقعیت سهام نتفلیکس دو برابر شده بود. (Zhn, ۲۰۲۳).

نبود عامل انسانی برای نظارت در فرآیندهای مختلف تولید می‌تواند به اشتباه سیستم و در نتیجه تولید محتوای نادرست و سوگیرانه منجر شود. استفاده بی‌ضابطه از هوش مصنوعی در تولید خبر و محتوای خبر، امکان به خطر انداختن دقت اخبار را دارد. بنابراین، به کارگیری داده‌های بدون سوگیری، تمیز و به سامان برای تولید محتوای خبری صحیح و قابل اعتماد خودکار ضروری است.

الگوریتم‌های این هوش، امکان پوشش دادن به طیف گسترده‌ای از موضوعات و منابع مانند شبکه‌های اجتماعی و محتواهای برخط را دارند و می‌توانند اخبار و گزارش‌های خبری را با سرعت و کارآ، به ویژه در بخش تهیه اخبار زنده و لحظه به لحظه تهیه کنند.

با این حال، همان‌طور که قبلا گفته شد، خطر اشتباه بودن و سوگیری داشتن این محتواها وجود دارد؛ زیرا الگوریتم‌ها فقط به اندازه‌ای بی‌طرف هستند که از طریق داده‌های اولیه به آن‌ها آموزش داده‌اند. با این که مدل‌های پیشرفته هوش مصنوعی از انبوده داده‌های متنی موجود در فضای وب برای دادن پاسخ‌های بهتر، استفاده می‌کند اما نمی‌تواند تشخیص دهد که کدام داده‌ها و منابع قابل اعتماد و کدام یک، اشتباه هستند. این ناتوانی در نهایت به تولید احتمالی پاسخ‌هایی مبتنی بر اطلاعات غلط یا گمراه‌کننده منجر میشود که صحت اطلاعات را به خطر اندازد. (Pocino, ۲۰۲۱).

اهمیت مهارت‌های سواد دیجیتال و رسانه‌ای

این یافته‌ها بر اهمیت مهارت‌های سواد دیجیتال و رسانه‌ای در استفاده از این سیستم‌ها تأکید می‌کنند؛ بدون آموزش و نظارت دقیق، ابزارهای هوش مصنوعی می‌توانند به طور ناخواسته اطلاعات گمراه‌کننده و نادرست تولید یا تقویت کنند و به گسترش اطلاعات نادرست و سردرگمی عمومی کمک کنند.

در همین راستا، نگرانی‌هایی مبنی بر نبود قضاوت و نظارت انسانی در تولید محتوای خبری خودکار وجود دارد که در آن در مورد این که این فرآیند موجب تولید محتواهای سوگیرانه، اشتباه و گمراه‌کننده در روزنامه‌نگاری خواهد شد، بحث می‌شود. بنگاه‌های خبری از ابزارهای هوشمند برای تهیه گزارش‌های خبری استفاده می‌کنند در صورت بروز اشتباه با واکنش و انتقاد عمومی مواجه خواهند شد.

به علاوه به دلیل، عدم اعلام منابع در تولید محتواهای هوشمند، تایید صحت اطلاعات را سخت‌تر می‌کند. شواهدی در دست است که نشان می‌دهد سطح اعتماد عمومی به محتواهای خبری خودکار در حال کاهش است؛ بررسی‌ها نشان می‌دهند که خوانندگان معمولاً اخبار نوشته‌شده توسط ماشین را به نسبت گزارش‌هایی که توسط روزنامه‌نگاران انسانی نوشته‌شده، کم دقت‌تر به شمار می‌آورند. (Longoni et al., ۲۰۲۲)

یافته‌های فوق، بر اهمیت آموزش سواد دیجیتال و رسانه‌ای در استفاده از این سامانه‌ها تأکید دارند؛ زیرا در صورت غفلت از آموزش و نظارت دقیق، ابزارهای هوشمند، به‌طور ناخواسته اطلاعات نادرست یا گمراه‌کننده را تولید و تقویت کرده و از این مسیر به گسترش اخبار نادرست و در نتیجه سردرگم کردن مردم و خوانندگان دامن بزنند.

براساس یافته‌های پژوهش کیم (Kim, ۲۰۱۹) تقریباً ۶۰ درصد از محتواهای خبری خودکار در سکوهای رسانه‌ای مختلف با هدف تامین منافع سیاسی، اقتصادی و اجتماعی، جعلی هستند. به همین خاطر انتشار اطلاعات نادرست برای نقش و اعتبار روزنامه‌نگاری به عنوان یک منبع قابل اعتماد در جامعه، تهدید به شمار می‌آید.

با وجود پیشرفت‌های فناورانه، نقش نظارتی عامل انسانیانسانی برای شناسایی منابع غیرقابل اعتماد و اطلاعات نادرست و زیانبار حیاتی باقی می‌ماند. سازمان‌های راستی‌آزمایی و کارشناسان آن‌ها به دلیل حجم زیاد محتواهای خبری جعل و نادرست و هم چنین پیچیدگی ربات‌های که اخبار و محتواهای جعلی تولید می‌کنند دچار مشکلات و چالش‌های زیادی شده‌اند. (Demartini et al., ۲۰۲۰)

مساله اصلی این است که با نبود نظارت انسانی بر محتواهای تولیدی خودکار، احتمال عبور اخبار نادرست از فرآیندهای راستی‌آزمایی روزنامه‌نگاران بیشتر می‌شود. در شرایط عادی، روزنامه‌نگاران از به مهارت‌های راستی‌آزمایی سنتی خود استفاده می‌کنند که اتفاقا در بسیاری از موارد کارآمد هستند؛ اما در شرایطی که برای انتشار سریع خبرها با محدودیت‌ها و فشار زمانی مواجه شوند، احتمال دارد که تجربه و قضاوت حرفه‌ای خود را بر راستی‌آزمایی محتواهای مزبور ترجیح دهند و ناخواسته اطلاعات ارزیابی نشده یا نادرست را منتشر کنند (Santos, ۲۰۲۳)

ناتوانی الگوریتم‌ها در فیلتر کردن محتواهای نادرست یا زیان‌بار موجب نگرانی درباره توانایی اتاق‌های خبر در محافظت از کاربران در برابر اطلاعات گمراه‌کننده شده است. این مسئله بر اهمیت حفظ استانداردهای اصلی روزنامه‌نگاری حتی در شرایط کاری سخت و فشرده برای تضمین دقت و قابل اعتماد بودن محتواهای خبری تاکید می‌کند.

موارد منفی مطروحه در این مقاله، نباید به‌عنوان عدم استفاده از این هوش تلقی شوند، بلکه باید از آن‌ها برای تعیین الزامات استفاده هدفمند، ایمن و موثر از این فناوری بهره برد. اضافه شدن هوش مصنوعی به بنگاه‌های خبری، فرصت‌های خوبی را برای ارتقای روزنامه‌نگاری به دست می‌دهد؛ اما رسانه‌ها باید با احتیاط و این قید که حفظ ارزش‌های اصلی رسانه یعنی دقت، بی‌طرفی و تکثر دیدگاه‌ها در اولویت هستند، از این فناوری استفاده کنند.

برای بهره‌گیری از مزایای هوش مصنوعی در روزنامه‌نگاری و در عین حال کاهش خطرات احتمالی آن، اقداماتی چون توسعه مسئولانه، شفافیت الگوریتمی، حفظ کنترل کاربر و تقویت سواد رسانه‌ای ضروری هستند. در پایان باید گفت: ایجاد توازن و تعادل میان نوآوری مبتنی بر فناوری از یک سو و حفظ یکپارچگی و انسجام روزنامه‌نگاری از سویی دیگر، برای فراهم بودن محیط اطلاعاتی و خبری سالم و آگاهی‌بخش برای مردم، ضروری است.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا