ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

محمد مهدی سیدی - هوش مصنوعی اگر به درستی به کارگرفته نشود نه تنها فرشته‌ی نجات نخواهد بود، بلکه روزنامه‌نگاری می‌تواند نابود کند. ضربه‌ی هوش مصنوعی به حقیقت با ایجاد اطلاعات جعلی و «توهم هوش مصنوعی» می‌تواند جبران ناپذیر باشد.

بیش از 20 سال است دقت خبری در مخابره حقیقت در جهان مورد حمله جدی قرار گرفته است. این حمله از زمانی شروع شد که صاحبان شرکت‌ها بدون نیاز به سرمایه‌گذاری مجدد در اتاق‌های خبر، توانستند سودهای کلانی به دست آوردند؛ اینترنت مخاطبان را بازتعریف و تبلیغات را دوباره پیکربندی کرد، در نتیجه بخش زیادی از درآمد اتاق‌های خبر کاهش یافت و کارکنان اتاق خبر را بین سال‌های 2008-2020 حدود 26 درصد کاهش داد. در ایالات متحده این حملات سنگین‌تر هم شد؛ جایی که دونالد جی ترامپ با دروغ‌های بزرگ/کوچک و پیروان فرقه‌ گونه‌ی خود که روزنامه‌نگاران را دشمن مردم می‌نامیدند، ظاهر شد.

اما اکنون خطر بزرگتری هم حقیقت را تهدید می‌کند؛ هوش مصنوعی که ممکن است حقیقت را در زمان ما به کلی ریشه کن کند. نه به خاطر سرقت ادبی یا به خاطر دیپ فیک و نه حتی به خاطر مشاغل نویسندگی کمتر؛ بلکه روزنامه‌نگاری ممکن است تسلیم توهمات ساخته‌ی هوش مصنوعی، اطلاعات ساختگی و استنباط‌های غیرمنطقی شود که تا حد امکان بدون دردسر و کاملاً باورکردنی انجام می‌شود.

برای جلوگیری از ضربه‌ی جدی به مخابره حقیقت اتاق‌های خبر باید استفاده خود از چت‌بات‌ها را تعدیل، ویراستاران بیشتری استخدام، بر بررسی حقایق تأکید و دستورالعمل‌هایی را درباره برنامه‌های کاربردی ماشینی ایجاد یا به‌روزرسانی کنند.

 

هوش‌های مصنوعی چهارگانه

برای شروع فرآیند نجات حقیقت از دستان هوش مصنوعی، ابتدا باید چهار نوع هوش مصنوعی مورد استفاده یا در دست توسعه را بشناسیم:

• هوش مصنوعی واکنشی: این نوع برای کارهای محدود برنامه‌ریزی شده است. از تعاملات گذشته درس نمی‌گیرد، اما می‌تواند شطرنج بازی کند، به عنوان فیلتر هرزنامه عمل کند و مجموعه‌ای از داده‌ها را تجزیه و تحلیل کند.

• هوش مصنوعی حافظه محدود: این نوع الگوبرداری شده از مغز انسان و قادر به یادگیری از ورودی‌های گذشته است؛ مانند ماشین‌های خودران، دستیاران مجازی هوشمند و چت بات‌ها.

• تئوری ذهن (هوش عمومی) هوش مصنوعی: این نوع در دست توسعه، برای شناخت و پاسخ به احساسات با توانایی‌های تصمیم گیری برابر با انسان طراحی شده است.

• هوش مصنوعی خودآگاه (فوق هوش): این نوع که با آن فاصله‌ی بسیار زیادی داریم، نه تنها برای تشخیص احساسات انسان، بلکه برای القای نیازها، خواسته‌ها و احساسات خود تئوریزه شده است.

هرچه ماشین‌ها هوشمندتر شوند، توهمات القایی آن‌ها هم خطرناک‌تر می‌شود. دریافت یک توصیه بد از دستیار هوشمند گوشی‌ها یا استناد به ارجاعات ناموجود یک چیز است و تشخیص اشتباه یک بیماری روانی یا پاسخ به یک تهدید نظامی نادرست کاملاً چیز دیگری است.

 

توهمات هوش مصنوعی

اصطلاح «توهم» به عنوان «ادراک حسی کاذبی که علیرغم عدم وجود یک محرک خارجی، حس قانع کننده‌ای از واقعیت دارد» تعریف می‌شود. وب‌سایت آموزش فناوری اطلاعات Techopedia بیان می‌کند که توهم‌های هوش مصنوعی زمانی اتفاق می‌افتند که «یک مدل بزرگ مانند OpenAI GPT4 یا Google PalM اطلاعات یا حقایقی نادرست را ایجاد کند که بر اساس داده‌ها یا رویدادهای واقعی نباشد».

چت ربات‌های مبتنی بر هوش مصنوعی می‌توانند اطلاعات مربوط به نام‌ها، تاریخ‌ها و رویدادهای تاریخی را تولید ‌کنند و موجب ایجاد «توهم هوش مصنوعی» شوند. بدتر از آن، آن‌ها این جعل‌ها را «با اطمینان و محکم» ارائه می‌کنند که می‌تواند منجر به «عواقب جدی در برخی موارد»، به‌ویژه بهداشت و پزشکی شود.

این خطرات به همین جا ختم نمی‌شود؛ استفاده از ChatGPT حتی می‌تواند اعتماد به تحقیقات را هم از بین ببرد. دانش‌آموزان و سایر محققان تازه‌کار هم اگر ایرادات فراوان ChatGPT را درک نکنند ممکن است مهارت‌های تحقیقاتی ضروری خود را از دست بدهند و در کلاس درس با مشکل مواجه شوند.

محققان معمولاً تحت فشار زمان هستند، برای رسیدن تحقیقات خود به بازه‌ی انتشار احساس فشار می‌کنند و بنابراین ممکن است از چت بات‌ها به عنوان مرجع استفاده کنند. داوران تحقیقات هم به ندرت منابع را قبل از انتشار مقالات بررسی می‌کنند؛ این یعنی «توهم» ممکن است روش علمی را هم مخدوش کند.

این وضعیت دقیقاً در اتاق های خبر هم وجود دارد. خبرنگاران برای زمان تحت فشار هستند و برای میزان بهره‌وری  خود پول دریافت می‌کنند. کمبود ویراستاران خبرهای کپی هم سبب می‌شود که رسانه‌ها اغلب در بررسی دقیق منابع شکست بخورند. این یعنی سرازیر شدن اطلاعات غلط و بدون پشتوانه‌ی تولید شده‌ی هوش مصنوعی از اتاق‌های خبر به سمت مردم و در نتیجه‌ی آن نابودی حقیقت.

این توهمات نه تنها جامعه را به خطر می اندازد، بلکه حرفه‌ی روزنامه‌نگاری را نیز به خطر می اندازد؛ زیرا روزنامه‌نگاری وظیفه دارد از قداست واقعیت محافظت کند. بنابراین، پذیرش هوش مصنوعی بدون درک ماهیت آن ممکن است منجر به بی اعتمادی عمیق‌تر به رسانه‌های خبری شود.

 

حقیقت مهم است

برای جلوگیری از آسیب‌های یاد شده هوش مصنوعی اتاق‌های خبر به سردبیرانی نیاز دارد که اخبار تولید شده را با دقت بررسی و آسیب‌های ماشینی شدن را محدود کنند. همچنین تعدیل استفاده از چت بات‌ها و کاربست هوشمندانه‌ی هوش مصنوعی امری ضروری است. همچنین رسانه‎‌ها باید دستورالعمل هایی را در مورد استفاده از هوش مصنوعی ایجاد یا به روز کنند.

بسیاری از رسانه‌های بزرگ جهان به سمت تدوین این دستورالعمل‌ها حرکت کرده‌اند؛ برای مثال رویترز برای اطمینان از «مشارکت معنادار انسانی، و توسعه و استقرار محصولات هوش مصنوعی و استفاده از داده‌ها به گونه‌ای که با مردم منصفانه رفتار کند» نظارت‌های جدی‌ای را وضع کرده است. گاردین هم استفاده از هوش مصنوعی مولد را نیازمند نظارت انسانی می‌داند و آن را منوط به اجازه‌ی یک سردبیر ارشد و برای منافع خاص کرده است.

یکی دیگر از پیشنهادها برای مقابله با آسیب‌های هوش مصنوعی ایجاد یک میز حقیقت یا استاندارد است که به آشکارسازهای هوش مصنوعی برتر مجهز باشد.

همه‌ی موارد بیان شده صرفاً بخشی از مسیری است که رسانه‌های امروز در پیش چشم خود داشته باشند. در این جدال میان حقیقت و هوش مصنوعی، اتاق های خبر باید برای دفاع از واقعیت قبل از اینکه طعمه ماشین‌ها شود، مجهز باشند. (ایرنا)

  • ۰۲/۰۸/۰۶

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">