فاجعه ChatGPT در گسترش اخبار جعلی
غلامرضا فلسفی - از زمان بهرهمندی از چتجیبیتی[1] تا هویدا شدن اثرات مخربِ این نرمافزار کاربردی هوش مصنوعی بر روزنامهنگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورکتایمز نوشت که یک چتبات (دستیار سایبری هوشمند) احساسات را بیان میکند[2] (که غیرممکن است). رسانههای دیگر نیز مملو از ارائه نمونههایی[3] از عملکرد سیدنی[4] بودند که نتایج جستوجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بینزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریهای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه میدهد، میگوید[8] که کار با سیدنی هیجانانگیزترین تجربه رایانهای زندگیاش محسوب میشود. وی در ادامه نتیجهگیری کرد که هوش مصنوعی شیوههای برانگیختن واکنشهای احساسی را آموخته و به نظر میرسد در انجام این مهم موفق هم عمل میکند.
سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی میکند، عطیهای به تبهکاران دیجیتالی است که از
اطلاعات نادرست عمدی منتفع میشوند. اکنون زمان آن است که حدودوثغورِ بهرهمندی از این امکان مشخص شود
برای روشنتر شدن ابعاد موضوع ابتدا تصریح میشود که دارای احساسات بودن هوش مصنوعی همچون چتجیبیتی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر اینکه چتجیبیتی و سیدنی نمیتوانند در رابطه با معنیدار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدلها در انجام آن بسیار عالی عمل میکنند عبارت از تقلید نثر انسان و پیشبینی کلمات صحیح در کنار یکدیگر است. این مدلهای زبانی گسترده[10] نرمافزارهای کاربردی هوش مصنوعی مانند چتجیبیتی میتوانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعههایی از دادههای منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آنها قادر به پاسخگویی به انواع پرسشها میشوند.
در چارچوب اهداف روزنامهنگاری، این چتباتها میتوانند در کمترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکسها، اصوات و فیلمها بسازند؛ اما مشکل اینجاست که آنها در ساخت محتوا بهطور مطلق هیچ تعهدی به حقیقت ندارند. لحظهای را تصور کنید که یک کاربر چتجیبیتی[11] با چه سرعتی میتواند اینترنت را از اخباری جعلی آکنده کند که به نظر رسد توسط انسان تقریر شده است.
با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چتجیبیتی توسط شرکت هوش مصنوعی اُپناِیآی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرمافزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگرانکننده اما قابل پیشبینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانههای اجتماعی با افزایش استقبال و حضور سرمایهگذاران و صاحبان شرکتها همراه شده که بهنوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروههای اخلاقگرا در حوزه هوش مصنوعی درباره نمونههای هوش مصنوعیِ تولیدشده که برای استفاده از آنها بیشازحد تمایل وجود داشته و درعینحال غیرقابلاعتماد و خطرناکاند، به بیان موسع روایتهایی مشغولاند اما در پی طرح چنین مواضعی مردم علاقهمندند بدانند که این نمونهها چگونه ظرفیتهایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم میکنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب میشوم تصریح میکنم که اگر میخواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیسبوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسلکشی- بدون فوت وقت به استماع دغدغهها و نگرانیهای کارشناسان در مورد آسیبهای احتمالی این فناوری نیازمندیم.
نگرانکنندهترین واقعیتی که بهطور مرتب باید تکرار و یادآوری شود آن است که چتجیبیتی هیچ تقیدی به حقیقت ندارد. همانطور که در بخش بررسی فناوری امآیتی آمده[16] چتباتهای مدل زبانی گسترده، یاوهگویانی بدنام محسوب میشوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاقهای گفتوگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایدههایی برای کسب انتفاع از محتوای جعلی در آن ارائه میشود، بازدید کنید؛ میبینید که چتجیبیتی در مقام برگی برنده برای ساختن دیدگاههای باورپذیرترِ جعلی و همچنین نظرات و نمایههای متقاعدکننده معرفی میشود.
اگر به موضوع چتباتهای مدل زبانی گسترده از منظر روزنامهنگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاقهای خبر از هوش مصنوعی بهره میبرند. اگر بهتازگی دریافتهاید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایتشدهاید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه میشوید که بیشازپیش به ذائقه و سلیقهتان نزدیک است، میتوانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانهزنی کنید.
امروزه برخی ناشران و مدیران رسانه تا مرحلهای که از هوش مصنوعی برای نوشتن گزارش استفاده کنند پیش رفتهاند که البته نتایجی متفاوت در پی داشته است. بهطور مثال کاشف بهعملآمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرمافزارهای کاربردی تقریر میشده، انتشار مییافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساختهشده توسط هوش مصنوعیِ این نشریه با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، میتواند بهطور مستقیم به خوانندگانش خسران وارد کند.
فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاقهای خبر، با بیش از 150 روزنامهنگار و صاحبان مؤسسات خبری مصاحبه کرد. او میگوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبهها یا خواندن سریع مجموع اطلاعات جمعآوریشده را برای روزنامهنگاران بسیار تسهیل کند اما مشکلات ریشهدار پیشین مانند بررسی صحت، بیطرفی و آگاهی از منبع دادهها همچنان بهشدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامهنگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است میگوید: حدود %90 بهرهمندی از هوش مصنوعی در روزنامهنگاری در قالب کارهایی چون شخصیسازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملالآور محسوب میشوند، به کار گرفته میشود. وی میافزاید که بلومبرگ سالهاست قسمتهایی فراوان از جمعبندی پوشش اخبار مالی خود را با این امکان بهطور خودکار انجام میدهد. بااینحال ایده استفاده از برنامههایی چون چتجیبیتی برای ساختن محتوا بسیار نگرانکننده است. بکت اظهار میکند: برای اتاقهای خبری که انتشار اخبار دروغ را غیراخلاقی میدانند، پیادهسازی طرح استفاده از چتجیبیتی بدون بهرهمندی از ویراستاری انسانی و راستی آزمایی محتوا امری بهغایت دشوار است.
فارغ از مشکلات مبتلابه نرمافزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکتهای فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپناِیآی که شرکت پشتیبان چتجیبیتی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد میداد تا محتواهایی مانند کودکآزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی میدانسته، شناسایی کنند تا بتواند به چتجیبیتی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه میگوید: در مقام فردی که از خدمات چتجیبیتی استفاده میکند تصریح میکنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرمافزار کاربردیِ هوش مصنوعی خود ندارد.
طی مطالعهای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدلهایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را بهعکس بدل میکنند، معطوف کردند. آنها دریافتند که این سامانهها «کلیشههای جمعیتشناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم میدهند. بهطور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکسهای ساختهشده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانهها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهرههای بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.
مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامهنگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راههای مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد میگوید همه آن چیزی که تشکیلدهنده مدلهای مولد کنونی مانند چتجیبیتی محسوب میشوند – از مجموعه دادهها تا منابع و سرمایه – همه و همه بازتابدهنده عدم تنوع است. بروسارد میافزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکتهای فناوری است، بدین معنی که قریب بهاتفاق محصولات فناورانه از تولیدات این ابر شرکتها محسوب میشوند؛ لذا اتاقهای خبر با تمسک به فناوری نمیتوانند بهراحتی از آن حذر کنند. امروزه اتاقهای خبر در خدمت سرمایهگذاریهای فناورانه از سوی چنین شرکتهایی قرار دارند چراکه رسانه هیچگاه سرمایه مالی مکفی برای رشد مستقل نداشته است.
در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیانگذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چتجیبیتی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفتهایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصتها و برنامههای نامحدود برای همیشه به روی ما و دیگر رسانههای دیجیتال میگشاید. او در ادامه اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راهاندازی میشود تا فهرستها، تجربه آزمونکها و سایر محتواهای سرگرمکننده را تقویت، طوفان فکری ما را اطلاعرسانی و محتواهای ما را برای کاربران شخصیسازی کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانهای، خبری و اینترنتی در معاملات %150 افزایشیافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگرانکننده است چراکه این امر بهطورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرمافزار کاربردی هوش مصنوعی میانجامد. این قبیل روایتهای نظاممندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامهریزی آیندهنگرانانه از سوی شرکتهای رسانهای تلقی شود. البته این میزان ذوقمندی نسبت به تولیدات هوش مصنوعیِ مولد میتواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر اینکه ممکن است این نرمافزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.
ما در مرکز تحقیقاتی خود در دانشکده روزنامهنگاری دانشگاه کلمبیا درباره تلاشهای انجامشده جهت تأمین منابع مالی شبکههای پول سیاه از طریق بودجههای سیاسی مطالعه میکنیم؛ شبکههایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف میگیرند و از تاکتیک (راهکنش) تکرارشونده بهره میبرند. مطالعات مرکزمان نشان میدهد قابلیتهای چتجیبیتی، این قسم خبرسازیها را افزایش داده، آن را بسیار آسانتر و در اختیار مخاطبانی زیادتر قرار میدهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفتهشده پژوهشگران دانشگاه استنفورد شبکهای از نمایههای جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کردهاند. البته به نظر میرسد ردوبدل کردن متن گمراهکننده با چتباتها که روزنامهنگاران آن را بسیار وسوسهانگیز میدانند در مقایسه با گفتوگو با کاربرانی آسیبپذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان میکنند، از جذابیتی کمتر برخوردار است!
درباره ظرفیت فیلمها و اصوات دیپفیک – به ساخت تصاویر و اصوات واقعگرایانه بر پایه هوش مصنوعی گفته میشود که چهرهها و صداهای افراد بهخصوص افراد مشهور جعل میشود. از مشهورترین نمونههای متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدلهای مولد کنونی به نظر میرسد خطر واقعی نمونههایی مانند چتجیبیتی محسوب میشوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیدهاند چراکه در مقایسه با این نرمافزار کاربردی افراد را بهراحتی میتوان نسبت به خطرات جعل ژرف آگاه کرد. چتجیبیتی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبههای فکری میانه و متعادل را به حاشیه میبرد.
برای برخی چون من که از دریچه اخلاق به فناوری مینگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوریهای رسانههای اجتماعی آنهم در دو دههای که این رسانهها بهسرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد بهجای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر میرسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروههایی مشابه متشکل از شرکتهای همسو و متمول حوزه فناوری همچنین صندوقهایی مالی در زمینه سرمایهگذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون میشویم، با این تفاوت که این بار خطر بزرگتر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)
*این نوشتار ترجمه آزاد مقالهای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامهنگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد
[1] Chat Generative Pre-trained Transformers (ChatGPT)
[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html
[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams
[4] Sydney اسم رمز پروژه موتور جستوجوی جدید مایکروسافت
[5] The New Bing
[6] Artificial intelligence (AI)
[7] Ben Thompson
[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai
[9] www.theguardian.com/technology/chatgpt
[10] LLMs
[11] www.theguardian.com/technology/chatgpt
[12] https://openai.com
[13] Christopher Manning
[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA
[15] Misinformation
[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines
[17] Disinformation
[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing
[19] Felix Simon
[20] Charlie Beckett
[21] https://time.com/6247678/openai-chatgpt-kenya-workers
[22] https://arxiv.org/pdf/2211.03759.pdf
[23] https://openai.com/research/dall-e
[24] https://stablediffusionweb.com
[25] Meredith Broussard
[26] Jonah Peretti
[27] www.buzzfeed.com
[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660
[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation
[30] https://vrgl.ir/ZJIDI