ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

هوش مصنوعی، تهدیدی برای آینده‌ی بشر

| چهارشنبه, ۹ اسفند ۱۳۹۶، ۰۲:۵۰ ب.ظ | ۰ نظر

همه‌ی چیزهایی که ما در مورد «تمدن» دوست داریم، محصول هوش است؛ بنابراین تقویت هوش انسانی ما با استفاده از هوش مصنوعی، پتانسیلی است که کمک می‌کند این تمدن به شکوفایی‌ای برسد که هرگز پیش از این به آن دست نیافته؛ البته تا زمانی که کنترل ربات‌های ابرهوشمند در دست بشر باشد!

 

​هوش مصنوعی چیست؟

هوش مصنوعی (Artificial Intelligence) از سیری (دستیار صوتی اپل) تا ماشین‌های خودران، به سرعت در حال پیشرفت است. در حالی که داستان‌های علمی‌ - تخیلی اغلب هوش مصنوعی را در قالب ربات‌هایی انسان‌نما نشان می‌دهد، هوش مصنوعی، الگوریتم‌های جست‌وجوی گوگل تا پلتفرم تجاری کمپانی آی.‌بی.‌ام و «سلاح‌های خودمختار» را در بر می‌گیرد.

هوش مصنوعی امروزه مشخصا به عنوان هوش مصنوعی محدود یا ضعیف شناخته می‌شود که برای انجام یک وظیفه‌ی محدود (به عنوان مثال فقط تشخیص چهره یا جست‌وجوهای اینترنتی یا راندن یک ماشین) طراحی شده است. با این حال، هدف بلندمدت بسیاری از محققان، ایجاد هوش مصنوعی عمومی‌ یا قوی است. در حالی که هوش مصنوعی محدود ممکن است در وظایف خاصی که به او اختصاص داده می‌شود، مانند بازی شطرنج یا تنها انجام محاسبات، بهتر از انسان عمل کند، هوش مصنوعی عمومی می‌تواند تقریبا در «امور شناختی» (مربوط به فرایند یادگیری، شناختن و آموختن چیزها) بهتر از انسان‌ها عمل کند.

 

هوش مصنوعی امنیت دارد؟

در کوتاه‌مدت، حفظ تاثیرات هوش مصنوعی بر جامعه، انگیزه‌ای است تا در بسیاری از زمینه‌ها، مثل اقتصاد، قانون، امنیت و کنترل تحقیق شود. اگر لپ‌تاپ شما خراب یا هک شود، ممکن است اتفاق ناگواری باشد اما تصور کنید از یک سیستم هوش مصنوعی بخواهید کاری مثل کنترل ماشین، هواپیما، دستگاه تنظیم ضربان قلب، سیستم تجارت خودکار یا سیستم شبکه‌ی برق شما را به دست بگیرد! یکی دیگر از چالش‌های کوتاه‌مدت، جلوگیری از مسابقه‌ی تسلیحاتی در حوزه‌ی سلاح‌های خودمختار مرگبار است.

در درازمدت سوال مهم این است که اگر تلاش برای هوش مصنوعی قوی موفق شود و سیستم هوش مصنوعی در همه‌ی امور شناختی بهتر از انسان‌ها باشد، چه اتفاقی می‌افتد؟

همانطور که جان گود، ریاضیدان انگلیسی در سال ۱۹۶۵ اشاره کرده است، طراحی دقیق سیستم‌های هوش مصنوعی به خودی خود یک کار شناختی است. چنین سیستمی‌ می‌تواند بطور بالقوه «خودبهبودی بازگشتی» را به وجود آورد که موجب انفجار اطلاعاتی می‌شود که عقل بشری پشت سر بگذارد. با اختراع فناوری‌های جدید انقلابی، چنین ابَر هوشی ممکن است برای ریشه‌کن کردن جنگ، بیماری و فقر به ما کمک کند. بنابراین ایجاد هوش مصنوعی قوی ممکن است بزرگ‌ترین رویداد تاریخ بشر باشد. البته بعضی از کارشناسان در این‌باره ابراز نگرانی کرده‌اند؛ آنها می‌گویند اگر ما نتوانیم پیش از ایجاد این ابَر هوش، اهداف هوش مصنوعی را با اهدافش بشری هماهنگ کنیم، ممکن است آخرین باری باشد که بشر چیزی اختراع می‌کند!

بعضی‌ها در دستیابی به ابر هوش تردید می‌کنند و برخی دیگر اصرار دارند که ایجاد هوش مصنوعی ابر هوشمند، ممکن و بطور تضمینی سودمند خواهد بود. کارشناسان هر دو احتمال را در نظر دارند و می‌دانند هوش مصنوعی قوی، ممکن است عمداً یا سهواً موجب خسارت‌های عظیمی‌شود؛ با این حال بر این باورند که تحقیقات امروزی می‌تواند در پیشگیری از این عواقب منفی احتمالی کمک کند و می‌توان در عین اجتناب از معایب، از مزایای ابر هوش بهره‌مند شد.

 

هوش مصنوعی چگونه می‌تواند خطرناک باشد؟

محققان بر این باورند که بعید است ابر هوش، احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد و هیچ دلیلی وجود ندارد که  تعمداً خیرخواه یا بدخواه باشد!

با این حال کارشناسان درمورد خطرات هوش مصنوعی دو سناریو در ذهن دارند:

اول: هوش مصنوعی‌ برای انجام کاری ویرانگر برنامه‌ریزی شده است: سلاح‌های خودمختار، سیستم‌های هوش مصنوعی هستند که برای کشتن برنامه‌ریزی شده‌اند. در دستان آدمِ عوضی، این سلاح‌ها براحتی می‌توانند باعث تلفات جمعی شوند. علاوه بر این، مسابقه‌ی تسلیحاتی در این حوزه می‌تواند منجر به جنگ هوش مصنوعی شود که تلفات زیادی بر جا می‌گذارد. برای جلوگیری از نابود شدن توسط دشمن، این سلاح‌ها طوری طراحی می‌شوند که براحتی «خاموش» نشوند؛ بنابراین احتمالاً انسان‌ها کنترل این وضعیت را از دست می‌دهند! البته این خطر حتی با هوش مصنوعی محدود فعلی نیز وجود دارد اما همپای هوش مصنوعی و افزایش سطح خودمختاری سلاح‌ها رشد می‌کند.

دوم: هوش مصنوعی برای انجام کاری مفید برنامه‌ریزی شده است اما یک روش مخرب برای دستیابی به هدف خود ایجاد می‌کند: اگر نتوانیم اهداف هوش مصنوعی را با اهداف خودمان هماهنگ کنیم این اتفاق هر زمانی ممکن است رخ دهد و دردسرهای زیادی درست کند.

اگر از ماشین هوشمند حرف‌گوش‌کن خود بخواهید که شما را بسرعت به فرودگاه برساند، ممکن است کاری کند که پلیس شما را با هلیکوپتر تعقیب کند! شاید این چیزی نباشد که شما «خواسته‌اید» اما چیزی است که به معنای واقعی کلمه شما «درخواست» کرده‌اید!

همانطور که این مثال‌ها نشان می‌دهند، نگرانی درباره‌ی هوش مصنوعی پیشرفته، بابت «خشونت» نیست، بلکه بابت «صلاحیت» آن است. هوش مصنوعی ابر هوشمند، در دستیابی به اهداف خود بسیار خوب عمل می‌کند و اگر این اهداف با اهداف بشر هماهنگ نباشد، مشکل خواهیم داشت!

شما احتمالاً یک مورچه‌کش شیطان‌صفت که با نفرت مورچه‌ها را لگد می‌کند نیستید اما اگر مسئولیت یک پروژه‌ی برق‌آبی «انرژی سبز» را بر عهده داشته باشید و در محدوده‌ای که بخاطر پروژه قرار است زیر آب برود یک تپه‌ی مورچه‌ای وجود داشته باشد، این برای مورچه‌ها خیلی بد است؛ هدف کلیدی تحقیقات ایمنی در حوزه‌ی هوش مصنوعی، این است که هرگز بشر در موقعیت آن مورچه‌ها قرار نگیرد!

 

نگرانی بزرگان علم و فناوری درباره‌ی امنیت هوش مصنوعی

استفن هاوکینگ، الون ماسک، استیو ووزنیاک، بیل گیتس و بسیاری دیگر از نام‌های بزرگ در زمینه علم و فناوری، اخیرا در رسانه‌ها و نامه‌های سرگشاده‌ی خود، درباره‌ی خطرات ناشی از هوش مصنوعی ابراز نگرانی کرده و به خیل محققان برجسته‌ی هوش مصنوعی پیوسته‌اند.

چرا این موضوع ناگهان در سرخط خبرها قرار گرفت؟ این ایده که تلاش برای دستیابی به هوش مصنوعیِ قوی در نهایت موفقیت‌آمیز خواهد بود، از قرن‌ها پیش در داستان‌های علمی‌ - تخیلی، وجود داشته است. با این حال، به لطف پیشرفت‌های غیرمنتظره‌ی دهه‌های اخیر، بسیاری از نقاط قوت هوش مصنوعی که کارشناسان انتظار داشتند دهه‌های بعد محقق شود، تنها در پنج سال گذشته به دست آمده است و بسیاری از کارشناسان جداً تصور می‌کنند که ممکن است ما ابر هوش را در طول زندگی خود تجربه کنیم.

در همین حال برخی دیگر از کارشناسان معتقدند که پیشرفت هوش مصنوعی در حد هوش انسانی قرن‌ها طول می‌کشد؛ بطوری که بیشتر محققان در کنفرانس پورتوریکو ۲۰۱۵ معتقد بودند که این اتفاق پیش از سال ۲۰۶۰ محقق خواهد شد و از آنجا که ممکن است تحقیق درباره‌ی امنیت هوش مصنوعی دهه‌ها طول بکشد، احتیاطاً باید از همین حالا شروع کرد.

از آنجا که هوش مصنوعی توانایی این را دارد که هوشمندتر از هر انسانی باشد، هیچ راه مطمئنی برای پیش‌بینی رفتار آن وجود ندارد. نمی‌توانیم یک فناوری قبلی را اساس کار قرار دهیم چون هرگز چیزی که - آگاهانه یا ناآگاهانه - باهوش‌تر از بشر باشد خلق نکرده‌ایم. شاید بهترین مثال از آنچه که ممکن است با آن مواجه شویم، تکامل بشر است؛ انسان‌ها اکنون سیاره‌ی زمین را کنترل می‌کنند، نه بخاطر اینکه ما قوی‌ترین، سریع‌ترین یا بزرگ‌ترین‌ موجودات هستیم بلکه بخاطر اینکه باهوش‌ترین‌ها هستیم. اگر روزی برسد که «باهوش‌ترین» نباشیم، آیا می‌توان مطمئن بود که باز هم کنترل زمین را در دست داشته باشیم؟

برخی بر این باورند که تمدن بشر تا زمانی شکوفا می‌شود که ما در مسابقه‌ی بین فناوری و هوشِ چیزی که آن را مدیریت می‌کنیم، برنده باشیم؛ بهترین راه برای برنده‌شدن در این مسابقه این نیست که مانع از پیشرفت اولی شویم، بلکه باید دومی را با گسترش تحقیقاتِ ایمنیِ هوشِ مصنوعی تسریع دهیم.

 

افسانه‌های برجسته درباره‌ی هوش مصنوعی پیشرفته

آیا پیشرفت احتمالی هوش مصنوعی تا سطح هوش انسان منجر به انفجار اطلاعاتی خواهد شد؟ آیا باید از این اتفاق خوشحال باشیم یا باید از آن بترسیم؟ نمونه‌های بسیاری از بحث‌های کاذب خسته‌کننده‌ی ناشی از سوءتفاهم‌ درباره‌ی هوش مصنوعی وجود دارد.

 

زمان‌بندی تحقق ابرهوش

یک تصور غلط این است که بشر در قرن بیست‌ویکم به هوش مصنوعی قوی دست‌ می‌یابد. در حقیقت، تاریخ پر است از پیش‌گویی‌های عرصه‌ی فناوری؛ اتومبیل‌های پرنده‌ای که وعده‌ داده‌ بودیم کجاست؟! هوش مصنوعی هم در گذشته حتی توسط برخی از بنیانگذاران این حوزه بطور مکرر وعده‌ داده شده است.

محققان تصور می‌کنند احتمال دستیابی به چنینی چیزی ۵۰ درصد است و تا سال ۲۰۴۵ به این فناوری می‌رسیم؛ برخی محققان دیگر صدها سال یا بیشتر را حدس زده‌اند. در هر صورت محققان همین حالا مشغول تحقیق درباره‌ی امنیت هوش مصنوعی قوی هستند و استدلال می‌کنند که گرچه مطمئن نیستیم این اتفاق در این قرن رخ دهد اما حل مسائل امنیتی این حوزه ممکن است چندین دهه طول بکشد. بنابراین اگر از حالا محتاطانه شروع به تحقیق کنیم بهتر از این است که برنامه‌نویسان شب قبل از واقعه در حال خوردن ردبول تصمیم بگیرند که کار را شروع کنند!

 

خطرات ابرهوش

بسیاری از محققان هوش مصنوعی زمانی که این سرخط را می‌بینند چشمانشان گرد می‌شود: «استفن‌ هاوکینگ هشدار می‌دهد که افزایش ربات‌ها ممکن است برای بشر فاجعه‌بار باشد».

مقالات بسیاری در این‌باره منتشر شده که اغلب تصویر یک ربات شیطانی سلاح به دست را نشان می‌دهند و می‌گویند باید نگران افزایش ربات‌ها و کشتار انسان‌ها باشیم زیرا آنها هوشمند یا شرور شده‌اند. چنین مقالاتی واقعاً جذابند اما درباره‌ی چیزی حرف می‌زنند که محققان نگران آن نیستند. این سناریو ترکیبی از سه تصور غلط است: نگرانی درباره‌ی هوش، شر و ربات‌ها.

اینکه ربات‌ها هوشمند باشند و مثل انسان‌ها تجربه‌های ذهنی کسب کنند، مهم نیست؛ مهم، کاری است که هوش مصنوعی قوی می‌تواند انجام دهد. ترس از شرور شدن ربات‌ها موضوع فرعی دیگری است؛ در حالی که نگرانی اصلی درباره‌ی بدرفتاری آنها نیست، بلکه درباره‌ی شایستگی آنهاست. ابرهوش بخوبی می‌تواند به اهداف خود دست پیدا کند، بنابراین ما باید مطمئن شویم که اهداف آن با ما هماهنگ باشد.

انسان‌ها عمدتاً از مورچه‌ها نفرت ندارند اما ما هوشمندتر از آنها هستیم، پس اگر می‌خواهیم نیروگاه برق‌آبی بسازیم، این برای مورچه‌ها خیلی بد است. جنبش «هوش مصنوعی مفید» می‌خواهد از قرار دادن بشریت در موقعیت آن مورچه‌ها اجتناب کند.

تصور غلط دیگر مربوط به این است که ماشین‌ها نمی‌توانند اهداف خود را داشته باشند. برای مثال موشکی که می‌تواند هدف خود را تعقیب کند، هدف مشخصی دارد اما مهم این است که آن هدف با هدفی که شما به دنبال آن هستید هماهنگ باشد. بنابراین نگرانی متخصصان درباره‌ی هوشمندی ماشین‌ها نیست، درباره‌ی اطلاعات هوشمندانه‌ی آنهاست؛ بطور خاص، اطلاعاتی که اهدافشان با ما متفاوت است.

چنین هوش فوق‌العاده‌ای بدون نیاز به بدنِ رباتیک، صرفاً نیازمند اتصال به اینترنت است تا بتواند دردسرهای عظیمی برای جهان درست کند.

اشتباه است که تصور کنیم یک ربات نمی‌تواند انسان را کنترل کند: انسان می‌تواند یک ببر را کنترل کند فقط به این دلیل که از او باهوش‌تر است؛ یعنی اگر ما موقعیت خود را به عنوان هوشمندترین موجود روی زمین از دست بدهیم، به احتمال بسیار زیاد کنترل سیاره را هم از دست می‌دهیم!

منبع: ایسنا

  • ۹۶/۱۲/۰۹

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">