ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

نگران کدام بخش‌های «هوش مصنوعی» باشیم؟

| دوشنبه, ۲۷ اسفند ۱۴۰۳، ۱۲:۲۴ ب.ظ | ۰ نظر

برخی نگرانی‌ها درمورد هوش مصنوعی صرفاً حدس‌وگمان هستند اما خطرات واقعی نیز وجود دارد. این‌را کسی می‌گوید که هدفش این‌است‌که این فناوری را برای عموم مردم شفاف‌سازی کند و این سخنان را در سخنرانی‌های سالانه کریسمس مؤسسه سلطنتی مطرح کرد.

از هوش مصنوعی گاهی به‌عنوان خطری برای موجودیت بشر، هم‌سطح با همه‌گیری‌های جهانی یاد می‌شود اما این‌مسئله حداقل برای یکی از پیشگامان این‌عرصه آن‌چنان نگران‌کننده نیست. 
پروفسور مایکل وولدریج که سخنرانی‌های کریسمس امسال مؤسسه سلطنتی را ارائه داد، به گاردین می‌گوید نگرانی اصلی‌اش این‌است‌که هوش مصنوعی به رئیسی بی‌رحم و غیرقابل‌تحمل تبدیل شود، رئیسی که تمام ایمیل‌های کارمندانش را زیرنظر دارد، مدام به آن‌ها گیر می‌دهد و درنهایت حتی بالقوه تصمیم می‌گیرد چه‌کسی را اخراج کند. 
او گفت: امروزه نمونه‌های اولیه و بارزی از این‌نوع ابزارها دردسترس هستند و من این‌موضوع را بسیار نگران‌کننده می‌دانم. 
وولدریج، استاد علوم کامپیوتر دانشگاه آکسفورد بیان کرد که قصد دارد از معتبرترین سخنرانی‌های علمی عمومی بریتانیا برای روشن‌کردن ابهامات پیرامون هوش مصنوعی استفاده کند. 
او گفت اکنون اولین‌باری‌ست که ابزارهای هوش مصنوعی مانند ChatGPT با کاربرد عمومی و بازار گسترده، دردسترس قرار گرفته‌اند که به‌راحتی می‌توان فریفته آنان شد. 
او افزود: این نخستین‌باری‌ست که با نوعی از هوش مصنوعی روبرو شده‌ایم که شبیه همان‌چیزی‌ست‌که به ما وعده داده شده بود؛ هوش مصنوعی که در فیلم‌ها، بازی‌های کامپیوتری و کتاب‌ها دیده‌ایم. 
وولدرجاین این‌موضوع را به‌طور ویژه موردتأکید قرار داد که ابزارهایی مانند ChatGPT نه جادویی هستند و نه اسرارآمیز، او در سخنرانی‌های کریسمس گفت: وقتی مردم نحوه عملکرد واقعی این فناوری را ببینند، از آنچه در آنجا می‌گذرد شگفت‌زده خواهند شد. این آگاهی به آن‌ها کمک خواهد کرد تا در دنیایی که چنین فناوری‌هایی تنها ابزارهایی برای استفاده هستند، بهتر عمل کنند و دیگر به آن‌ها به‌عنوان چیزی فراتر از یک ماشین‌حساب یا رایانه نگاه نکنند. 
وولدرج دراین‌مسیر تنها نخواهد بود؛ ربات‌ها، دیپ‌فیک‌ها و سایر چهره‌های برجسته تحقیقات هوش مصنوعی به او خواهند پیوست تا ابعاد مختلف این فناوری را بررسی کنند. 
یکی از بخش‌های برجسته این سخنرانی‌ها، اجرای آزمایش تورینگ است، چالشی مشهور که نخستین‌بار توسط آلن تورینگ پیشنهاد شد. به‌طورخلاصه، اگر فردی در یک مکالمه تایپی شرکت کند اما قادر به تشخیص این‌که طرف مقابل انسان است یا ماشین نباشد، دراین‌صورت می‌توان گفت که آن ماشین به سطحی از درک شبیه به انسان رسیده است. درحالی‌که برخی کارشناسان قاطعانه معتقدند که این آزمون هنوز باموفقیت پشت‌سر گذاشته نشده، برخی‌دیگر نظر متفاوتی دارند. 
وولدریج دراین‌باره گفته: برخی از همکاران من اساساً براین‌باورندکه ما آزمون تورینگ را باموفقیت پشت‌سر گذاشته‌ایم. در یکی دوسال‌اخیر، بدون سروصدای زیاد، فناوری به نقطه‌ای رسیده که قادر است متنی تولید کند که ازنظر کیفیت و سبک، تفاوتی با متنی که یک انسان می‌نویسد، نداشته باشد. 
بااین‌حال، وولدرج نگاه متفاوتی به‌این‌موضوع دارد. او تصریح کرد: به‌نظر من، آنچه این‌موضوع به ما نشان می‌دهد این‌است‌که آزمون تورینگ، با وجود سادگی، زیبایی و اهمیت تاریخی‌اش، درواقع معیار چندان مناسبی برای سنجش هوش مصنوعی نیست. 
این پروفسور براین‌باوراست‌که یکی از جنبه‌های هیجان‌انگیز فناوری امروز، توانایی آن در آزمودن تجربی پرسش‌هایی‌ست که پیش‌تر به حوزه فلسفه محدود بودند، ازجمله‌اینکه آیا ماشین‌ها می‌توانند به آگاهی دست یابند یا خیر. 
وولدریج می‌گوید ما درواقع هیچ درکی از نحوه کارکرد آگاهی انسانی نداریم و بسیاری از کارشناسان معتقدند تجربیات نقشی مهمی دراین‌فرآیند دارند. 
برای‌مثال، درحالی‌که انسان‌ها می‌توانند عطروطعم قهوه را تجربه کنند، مدل‌های زبانی پیشرفته مانند ChatGPT از چنین قابلیتی برخوردار نیستند. این‌مدل‌ها هزاران توصیف درباره نوشیدن قهوه، طعم آن و برندهای مختلفش را خوانده‌اند، اما هرگز خودشان قهوه را تجربه نکرده‌اند، وولدرج توضیح می‌دهد: درواقع آن‌ها هرگز چیزی را تجربه نکرده‌اند. علاوه‌براین، اگر مکالمه‌ای قطع شود، چنین سیستم‌هایی هیچ درکی از گذر زمان ندارند؛ 
اما وول‌دریج استدلال می‌کند که هرچند این‌عوامل توضیح می‌دهند که چرا ابزارهایی مانند چت‌جی‌پی‌تی به‌عنوان موجودات آگاه درنظر گرفته نمی‌شوند، اما ممکن است روزی ماشین‌هایی با چنین قابلیت‌هایی ممکن شوند. 
او استدلال می‌کند که درنهایت، انسان‌ها نیز چیزی جز مجموعه‌ای از اتم‌ها نیستند. او گفت: به‌همین‌دلیل، فکر نمی‌کنم هیچ استدلال علمی مشخصی وجود داشته باشد که نشان دهد ماشین‌ها نمی‌توانند آگاه شوند.
او می‌افزاید که هرچند چنین آگاهی احتمالاً با آگاهی انسانی متفاوت خواهد بود، اما ممکن است همچنان نیازمند نوعی تعامل معنادار با جهان باشد. هوش مصنوعی از هم‌اکنون درحال‌تحول بخش‌هایی همچون مراقبت‌های بهداشتی و هنر است و به‌نظر می‌رسد که پتانسیل این فناوری بسیارگسترده باشد؛ اما وولدریج هشدار می‌دهد که این فناوری خطراتی نیز به‌همراه دارد. 
او می‌گوید: هوش مصنوعی می‌تواند محتوای شبکه‌های اجتماعی شما را تحلیل کند، گرایش‌های سیاسی‌تان را تشخیص دهد و سپس اخبار نادرستی را دراختیارتان بگذارد تا مثلاً رأی و دیدگاهتان را تغییر دهد. نگرانی‌های دیگری نیز وجود دارد، ازجمله‌اینکه سیستم‌هایی مانند ChatGPT ممکن است به کاربران توصیه‌های نادرست پزشکی بدهند. همچنین، این سیستم‌ها ممکن است تعصبات موجود در داده‌هایی که براساس‌آن‌ها آموزش دیده‌اند را بازتولید کنند. 
برخی نگران‌اند که استفاده از هوش مصنوعی پیامدهای ناخواسته‌ای به‌دنبال داشته باشد و این فناوری اولویت‌هایی را درپیش بگیرد که با خواسته‌های انسانی همسو نباشد. اگرچه وولدریج معتقد است که با فناوری کنونی، این نگرانی چندان محتمل نیست. 
او تأکید می‌کند که برای مقابله با خطرات موجود باید رویکردی نقادانه درپیش گرفت، به‌ویژه باتوجه‌به‌اینکه ChatGPT نیز دچار خطا می‌شود و درعین‌حال باید از شفافیت و پاسخگویی دراین‌فناوری اطمینان حاصل کرد. 
بااین‌حال وولدریج از امضای بیانیه مرکز ایمنی هوش مصنوعی که درباره خطرات این فناوری هشدار داده بود یا نامه مشابهی از مؤسسه آینده زندگی که هر دو در سال‌جاری منتشر شدند خودداری کرد. 
دراین‌بیانیه آمده بود: کاهش خطر نابودی بشر براثر هوش مصنوعی باید به‌عنوان یک اولویت جهانی، هم‌ردیف با تهدیدهایی در مقیاس اجتماعی همچون همه‌گیری‌ها و جنگ هسته‌ای درنظر گرفته شود. 
وولدریج درباره علت امضا نکردن این بیانیه‌ها می‌گوید: دلیل این‌کار این‌بودکه به‌نظر من، آن‌ها نگرانی‌های بسیارنزدیک و ملموس را با نگرانی‌های بسیاردور و صرفاً فرضی درهم‌آمیخته بودند. 
او درعین‌حال اذعان دارد که اگرچه امکان انجام کارهای به‌شدت احمقانه‌ای با هوش مصنوعی وجود دارد و نباید خطرات آن‌را نادیده گرفت، اما درحال‌حاضر هیچ‌کس به‌طورجدی این فناوری را برای کنترل زرادخانه هسته‌ای مطرح نکرده است. درصورتی‌که کنترل چیزی خطرناک را به هوش مصنوعی ندهیم، بعید است بتوانیم آن‌را تهدیدی واقعی برای بقا به‌حساب بیاوریم. 
این گفته‌های وولدریج، محقق و کارشناس هوش مصنوعی، درواکنش‌به نگرانی‌هایی‌ست که درمورد خطرات هوش مصنوعی مطرح شده است. 
اگرچه وولدریج از برگزاری نخستین اجلاس جهانی ایمنی هوش مصنوعی در پاییز امسال و ایجاد یک کارگروه در بریتانیا برای توسعه مدل‌های زبانی بزرگ و ایمن استقبال کرد، اما هنوزهم دررابطه‌با شباهت‌هایی که برخی میان نگرانی‌های رابرت اوپنهایمر درخصوص توسعه بمب‌های هسته‌ای و نگرانی‌های محققان هوش مصنوعی امروز برقرار کرده‌اند، متقاعد نشده است. 
وولدریج دراین‌خصوص گفته: من شب‌ها به‌خاطر جنگ اوکراین نگران می‌شوم، به‌خاطر تغییرات اقلیمی نگران می‌شوم، به‌خاطر رشد سیاست‌های پوپولیستی نگران می‌شوم و... اما هرگز به‌خاطر هوش مصنوعی نگران نمی‌شوم. (منبع:روزنامه سایه)

  • ۰۳/۱۲/۲۷

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">