نگران کدام بخشهای «هوش مصنوعی» باشیم؟

برخی نگرانیها درمورد هوش مصنوعی صرفاً حدسوگمان هستند اما خطرات واقعی نیز وجود دارد. اینرا کسی میگوید که هدفش ایناستکه این فناوری را برای عموم مردم شفافسازی کند و این سخنان را در سخنرانیهای سالانه کریسمس مؤسسه سلطنتی مطرح کرد.
از هوش مصنوعی گاهی بهعنوان خطری برای موجودیت بشر، همسطح با همهگیریهای جهانی یاد میشود اما اینمسئله حداقل برای یکی از پیشگامان اینعرصه آنچنان نگرانکننده نیست.
پروفسور مایکل وولدریج که سخنرانیهای کریسمس امسال مؤسسه سلطنتی را ارائه داد، به گاردین میگوید نگرانی اصلیاش ایناستکه هوش مصنوعی به رئیسی بیرحم و غیرقابلتحمل تبدیل شود، رئیسی که تمام ایمیلهای کارمندانش را زیرنظر دارد، مدام به آنها گیر میدهد و درنهایت حتی بالقوه تصمیم میگیرد چهکسی را اخراج کند.
او گفت: امروزه نمونههای اولیه و بارزی از ایننوع ابزارها دردسترس هستند و من اینموضوع را بسیار نگرانکننده میدانم.
وولدریج، استاد علوم کامپیوتر دانشگاه آکسفورد بیان کرد که قصد دارد از معتبرترین سخنرانیهای علمی عمومی بریتانیا برای روشنکردن ابهامات پیرامون هوش مصنوعی استفاده کند.
او گفت اکنون اولینباریست که ابزارهای هوش مصنوعی مانند ChatGPT با کاربرد عمومی و بازار گسترده، دردسترس قرار گرفتهاند که بهراحتی میتوان فریفته آنان شد.
او افزود: این نخستینباریست که با نوعی از هوش مصنوعی روبرو شدهایم که شبیه همانچیزیستکه به ما وعده داده شده بود؛ هوش مصنوعی که در فیلمها، بازیهای کامپیوتری و کتابها دیدهایم.
وولدرجاین اینموضوع را بهطور ویژه موردتأکید قرار داد که ابزارهایی مانند ChatGPT نه جادویی هستند و نه اسرارآمیز، او در سخنرانیهای کریسمس گفت: وقتی مردم نحوه عملکرد واقعی این فناوری را ببینند، از آنچه در آنجا میگذرد شگفتزده خواهند شد. این آگاهی به آنها کمک خواهد کرد تا در دنیایی که چنین فناوریهایی تنها ابزارهایی برای استفاده هستند، بهتر عمل کنند و دیگر به آنها بهعنوان چیزی فراتر از یک ماشینحساب یا رایانه نگاه نکنند.
وولدرج دراینمسیر تنها نخواهد بود؛ رباتها، دیپفیکها و سایر چهرههای برجسته تحقیقات هوش مصنوعی به او خواهند پیوست تا ابعاد مختلف این فناوری را بررسی کنند.
یکی از بخشهای برجسته این سخنرانیها، اجرای آزمایش تورینگ است، چالشی مشهور که نخستینبار توسط آلن تورینگ پیشنهاد شد. بهطورخلاصه، اگر فردی در یک مکالمه تایپی شرکت کند اما قادر به تشخیص اینکه طرف مقابل انسان است یا ماشین نباشد، دراینصورت میتوان گفت که آن ماشین به سطحی از درک شبیه به انسان رسیده است. درحالیکه برخی کارشناسان قاطعانه معتقدند که این آزمون هنوز باموفقیت پشتسر گذاشته نشده، برخیدیگر نظر متفاوتی دارند.
وولدریج دراینباره گفته: برخی از همکاران من اساساً براینباورندکه ما آزمون تورینگ را باموفقیت پشتسر گذاشتهایم. در یکی دوسالاخیر، بدون سروصدای زیاد، فناوری به نقطهای رسیده که قادر است متنی تولید کند که ازنظر کیفیت و سبک، تفاوتی با متنی که یک انسان مینویسد، نداشته باشد.
بااینحال، وولدرج نگاه متفاوتی بهاینموضوع دارد. او تصریح کرد: بهنظر من، آنچه اینموضوع به ما نشان میدهد ایناستکه آزمون تورینگ، با وجود سادگی، زیبایی و اهمیت تاریخیاش، درواقع معیار چندان مناسبی برای سنجش هوش مصنوعی نیست.
این پروفسور براینباوراستکه یکی از جنبههای هیجانانگیز فناوری امروز، توانایی آن در آزمودن تجربی پرسشهاییست که پیشتر به حوزه فلسفه محدود بودند، ازجملهاینکه آیا ماشینها میتوانند به آگاهی دست یابند یا خیر.
وولدریج میگوید ما درواقع هیچ درکی از نحوه کارکرد آگاهی انسانی نداریم و بسیاری از کارشناسان معتقدند تجربیات نقشی مهمی دراینفرآیند دارند.
برایمثال، درحالیکه انسانها میتوانند عطروطعم قهوه را تجربه کنند، مدلهای زبانی پیشرفته مانند ChatGPT از چنین قابلیتی برخوردار نیستند. اینمدلها هزاران توصیف درباره نوشیدن قهوه، طعم آن و برندهای مختلفش را خواندهاند، اما هرگز خودشان قهوه را تجربه نکردهاند، وولدرج توضیح میدهد: درواقع آنها هرگز چیزی را تجربه نکردهاند. علاوهبراین، اگر مکالمهای قطع شود، چنین سیستمهایی هیچ درکی از گذر زمان ندارند؛
اما وولدریج استدلال میکند که هرچند اینعوامل توضیح میدهند که چرا ابزارهایی مانند چتجیپیتی بهعنوان موجودات آگاه درنظر گرفته نمیشوند، اما ممکن است روزی ماشینهایی با چنین قابلیتهایی ممکن شوند.
او استدلال میکند که درنهایت، انسانها نیز چیزی جز مجموعهای از اتمها نیستند. او گفت: بههمیندلیل، فکر نمیکنم هیچ استدلال علمی مشخصی وجود داشته باشد که نشان دهد ماشینها نمیتوانند آگاه شوند.
او میافزاید که هرچند چنین آگاهی احتمالاً با آگاهی انسانی متفاوت خواهد بود، اما ممکن است همچنان نیازمند نوعی تعامل معنادار با جهان باشد. هوش مصنوعی از هماکنون درحالتحول بخشهایی همچون مراقبتهای بهداشتی و هنر است و بهنظر میرسد که پتانسیل این فناوری بسیارگسترده باشد؛ اما وولدریج هشدار میدهد که این فناوری خطراتی نیز بههمراه دارد.
او میگوید: هوش مصنوعی میتواند محتوای شبکههای اجتماعی شما را تحلیل کند، گرایشهای سیاسیتان را تشخیص دهد و سپس اخبار نادرستی را دراختیارتان بگذارد تا مثلاً رأی و دیدگاهتان را تغییر دهد. نگرانیهای دیگری نیز وجود دارد، ازجملهاینکه سیستمهایی مانند ChatGPT ممکن است به کاربران توصیههای نادرست پزشکی بدهند. همچنین، این سیستمها ممکن است تعصبات موجود در دادههایی که براساسآنها آموزش دیدهاند را بازتولید کنند.
برخی نگراناند که استفاده از هوش مصنوعی پیامدهای ناخواستهای بهدنبال داشته باشد و این فناوری اولویتهایی را درپیش بگیرد که با خواستههای انسانی همسو نباشد. اگرچه وولدریج معتقد است که با فناوری کنونی، این نگرانی چندان محتمل نیست.
او تأکید میکند که برای مقابله با خطرات موجود باید رویکردی نقادانه درپیش گرفت، بهویژه باتوجهبهاینکه ChatGPT نیز دچار خطا میشود و درعینحال باید از شفافیت و پاسخگویی دراینفناوری اطمینان حاصل کرد.
بااینحال وولدریج از امضای بیانیه مرکز ایمنی هوش مصنوعی که درباره خطرات این فناوری هشدار داده بود یا نامه مشابهی از مؤسسه آینده زندگی که هر دو در سالجاری منتشر شدند خودداری کرد.
دراینبیانیه آمده بود: کاهش خطر نابودی بشر براثر هوش مصنوعی باید بهعنوان یک اولویت جهانی، همردیف با تهدیدهایی در مقیاس اجتماعی همچون همهگیریها و جنگ هستهای درنظر گرفته شود.
وولدریج درباره علت امضا نکردن این بیانیهها میگوید: دلیل اینکار اینبودکه بهنظر من، آنها نگرانیهای بسیارنزدیک و ملموس را با نگرانیهای بسیاردور و صرفاً فرضی درهمآمیخته بودند.
او درعینحال اذعان دارد که اگرچه امکان انجام کارهای بهشدت احمقانهای با هوش مصنوعی وجود دارد و نباید خطرات آنرا نادیده گرفت، اما درحالحاضر هیچکس بهطورجدی این فناوری را برای کنترل زرادخانه هستهای مطرح نکرده است. درصورتیکه کنترل چیزی خطرناک را به هوش مصنوعی ندهیم، بعید است بتوانیم آنرا تهدیدی واقعی برای بقا بهحساب بیاوریم.
این گفتههای وولدریج، محقق و کارشناس هوش مصنوعی، درواکنشبه نگرانیهاییست که درمورد خطرات هوش مصنوعی مطرح شده است.
اگرچه وولدریج از برگزاری نخستین اجلاس جهانی ایمنی هوش مصنوعی در پاییز امسال و ایجاد یک کارگروه در بریتانیا برای توسعه مدلهای زبانی بزرگ و ایمن استقبال کرد، اما هنوزهم دررابطهبا شباهتهایی که برخی میان نگرانیهای رابرت اوپنهایمر درخصوص توسعه بمبهای هستهای و نگرانیهای محققان هوش مصنوعی امروز برقرار کردهاند، متقاعد نشده است.
وولدریج دراینخصوص گفته: من شبها بهخاطر جنگ اوکراین نگران میشوم، بهخاطر تغییرات اقلیمی نگران میشوم، بهخاطر رشد سیاستهای پوپولیستی نگران میشوم و... اما هرگز بهخاطر هوش مصنوعی نگران نمیشوم. (منبع:روزنامه سایه)