ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

نقدی بر تخیلات فناورانه از هوش مصنوعی

| سه شنبه, ۱۴ خرداد ۱۴۰۴، ۰۲:۴۱ ب.ظ | ۰ نظر

عباس پورخصالیان - سیستم‌های هوش مصنوعی، گسترۀ وسیعی از انواع دستگاه‌های الکترونیکیِ خودکارِ دارای رفتار واکنشی را در بر می‌گیرند. این گسترۀ وسیع دارای دو مرز است: مرز پائینی با حداقل حسگری و درک موقعیت؛ و مرز بالایی با حداکثر حسگری، بیشترین درک موقعیت و بهترین رفتار واکنشی.

نوع رفتار واکنشی سیستم هوش مصنوعی، وابسته است به جایگاهش در درون این دو مرز.

قایل شدن به وجود مرز بالایی، پذیرفتنِ وجود محدودیت‌ها در توانایی‌های هوش مصنوعی است (در زیر به این محدودیت‌ها خواهم پرداخت)؛ به خاطر این محدودیت‌ها است که همۀ انواع سیستم‌های هوش مصنوعی را دارای «هوش مصنوعی ضعیف» به حساب می‌آورند، در مقابلِ «هوش مصنوعی قوی» که مختص انسان است.

به عبارت دیگر: قایل شدن به وجود مرز بالایی، به این معنی است که عبور از «هوش مصنوعی ضعیف» به «هوش مصنوعی قوی» از لحاظ فنی، فلسفی و علمی ‌محال است و هر چند فناوری هوش مصنوعی در آینده پیشرفت کند، چنین گذاری هیچگاه رخ نخواهد داد.

و قایل شدن به مرز پائینی نیز پذیرفتنِ حدی وجودشناختی ست و نقطۀ آغازین بحث تفاوت میانِ سیستم‌های غیر هوشمند و سیستم‌های هوشمند؛ موضوعی که برای مقررات‌گذارِ احکام هوش مصنوعی و مجری یا قاضی دادگاه‌های جرایم رایانه‌ای، امری حیاتی است ولی به رغم حیاتی بودن، تعیین و تعریف آن در متن قانون یا در سند ملی سیاست‌های کلی نظام، معمولاً فراموش می‌شود!

مرز پایینی، کمینه و حداقلِ توانایی لازم برای آن است که رفتار یک سیستم را به عنوان «هوشمند» تعبیر کنیم.

از نظر فنی، اگر رفتار یک سیستم مبتنی بر قواعدی ساده باشد بر اساس قواعدی ساده وظایف مشخصی را انجام می‌دهد، مثل انجام چهار عمل اصلی توسط یک ماشین‌حساب؛ سیستم مربوط، هوشمند به حساب می‌آید.

و از دیدگاه فلسفی، چیستی مرز پائینی را این پرسش اساسی تعیین می‌کند که: هوش از کجا آغاز می‌شود؟ آیا هر سیستم واکنشی ساده، به صرف داشتن رفتار واکنشی، هوشمند است؟ یا فقط زمانی می‌توانیم سیستمی ‌را هوشمند بدانیم که آن سیستم بتواند بیاموزد و خود را تطبیق دهد؟

ولی از نظر اخلاقی نیز تعیین مرز پائینی مهم است؛ زیراکه معین می‌کند: تحت چه شرایطی یک سیستم، «هوشمند» و عامل، تعبیر می‌شود و در اثر عاملیت، اهمیت، اعتبار و مسؤولیت اجتماعی پیدا می‌کند.

مرز پایینی، جایی ا‌ست که یک سیستم شروع به نشان دادن رفتاری می‌کند که قابل تفسیر به عنوان «کنش هدف‌دار» است، حتی اگر سیستم، واقعاً نیت انجام آن کنش یا آگاهی از کنش را نداشته باشد.

اما مرز بالایی به معنی بیشینۀ توانایی هوش مصنوعی است. برای تعیین مرزبالایی، مجبوریم که وارد حوزه ‌ای فرضی و نظری ‌شویم:

یک مرز بالاییِ ممکن، هوش مصنوعی عمومی‌(Artificial General Intelligence: AGI) یا همان «هوش مصنوعی قوی» است؛ یعنی سیستمی‌که بتواند در تمام کارهای ذهنی، مانند یک انسان و حتی برتر از انسان عمل کند.

فراتر از AGI نیز، ایدۀ «فراهوش» (Superintelligence) است؛ سیستمی‌که فرض می‌شود در تمام زمینه‌ها از انسان، برتر است، مانند آن روبات‌های نیرومند و عاقلی که در داستان‌های علمی/تخیلی مطرح می‌شوند.

از دیدگاه فلسفی، این پرسش‌ها مطرح‌اند که: آیا مرزی ذاتی برای بیشینۀ هوش وجود دارد؟ آیا منطق، خودآگاهی، اراده، ریسک پذیری و امثالهم… مرزهایی ذاتی برای هوش مصنوعی محسوب می‌شوند؟ یا آیا حداقل مدت زمان محاسبه و بیشینۀ سرعت بازآوری منابع و ارائۀ راه حل به عنوان شاخص هوش، مرزی دارد؟ یا این که هوش، بالقوه نامحدود است؟ البته درصورتی که فرض کنیم انرژی، ماده و زمان به صورت نامحدود در دسترس هستند؟

جنبه اخلاقی و مخاطره‌آمیز پرسش از مرز بالایی، این است: اگر فناوری هوش مصنوعی مرزی بالایی نداشته باشد، چه؟ آن وقت عقاید تکینگی گرایان در این باره که: «بشریت مجبور است بالاخره یا با موجوداتی برتر از خود زندگی کند و یا منقرض شود زیراکه «فراهوشمندان» به انسان نیازی ندارند» لاجرم درست از آب در می‌آید.

به لحاظ تأملات و پرسش‌های بالاست که تعیین مرزهای هوش مصنوعی، امری بسیار مهم است!

 

  • «پرسش‌های مرزی» به جای طرح مرزهای مطلق

شاید بهتر باشد به جای صحبت از «مرز»های ثابت، از «پرسش‌های مرزی» سخن بگوییم، پرسش‌هایی از این دست:

– تا چه حد می‌توانیم در فناوری هوش مصنوعی پیش برویم؟

– در کجا باید مرزهایی اخلاقی، حقوقی یا فرهنگی را تعیین کنیم؟

– بیو (Bio) یعنی چه؟ و مرز میان ابزار بودن و زیستمند بودن کجاست؟

– آیا ادراک و «آگاهی حسی» داشتن، حد پایینی هوش در سیستم‌های هوش مصنوعی است؟

 

  • محدودیت‌های فناوری هوش مصنوعی

قایل شدن به وجود مرز برای سیستم‌های هوش مصنوعی، زمینه ساز تفکر پیرامون محدودیت‌های آنهاست. تمام دستاوردهای تاکنونی این فناوری، با موانع بنیادینی روبرو هستند که کاربردپذیری و قابلیت اطمینان این فناوری را محدود می‌سازند. این محدودیت‌ها، طیف وسیعی از چالش‌های فنی مانند وابستگی به حجم بیگ دیتا، وابستگی به کیفیت داده‌ها و فقدان قابلیت درک واقعی در سیستم‌های هوش مصنوعی، تا مسائل فلسفی و اجتماعی نظیر ملاحظات اخلاقی و الزامات قانونی را دربر می‌گیرند.

همان طور که گفته شد: سیستم‌های فعلی و آتی هوش مصنوعی در دسته «هوش مصنوعی ضعیف» قرار می‌گیرند؛ سیستم‌هایی که هرچند در انجام وظایف خاص دارای عملکردی تحسین برانگیز هستند، اما از انعطاف پذیری و درک شهودی هوش انسانی بسیار فاصله دارند.

در این سلسله از یادداشت‌ها، بارها متذکر شده‌ام که هرآنچه به عدد در نمی‌آید، الگوریتم‌پذیر نیست و لذا بیرون از حوزۀ فناوری هوش مصنوعی می‌ماند، و این ناتوانی در بازنمایی هرآنچه به عدد در نمی‌آید، محدودیت بزرگ این فناوری است.

پس، اساسی‌ترین محدودیت هوش مصنوعی در وابستگی مطلق آن به داده‌ها نهفته است. میزان هوشمندی ماشین‌ها مستقیماً به کیفیت داده‌های‌شان گره خورده است. این محدودیت به اشکال مختلفی بروز می‌کند و پیامدهای گسترده‌ای برای کاربرد سیستم‌های هوش مصنوعی دارد. داده‌های بی‌کیفیت نه تنها به نتایج نادرست می‌انجامند، بلکه می‌توانند تحریف‌های سیستماتیک و تبعیض‌آمیزی را تقویت کنند.

 

  • فقدان درک واقعی در سیستم‌های هوش مصنوعی

مشکل بنیادین سیستم هوش مصنوعی، ناتوانی‌اش در درک واقعی مفاهیم و معانی و ارزش‌ها و لذت‌ها است. اگرچه این سیستم‌ها قادر به تشخیص الگوهای پیچیده و تصمیم‌گیری بر اساس آنها هستند، اما فاقد درک عمیق از معنای امور و طعم و عطر زمینه‌اند؛ ویژگی‌هایی که مختص هوش انسانی هستند. این ضعف فناوری هوش مصنوعی به ویژه در پردازش زبان طبیعی آشکار است، جایی که سیستم‌ها می‌توانند متنی دستوری و به ظاهر معنادار تولید کنند، اما در حفظ پیوستگی زمینه‌ای و بافتاری در گفتگوهای طولانی مشکل دارند.

 

  • معضل ناتوانی در پیاده‌سازی عقل سلیم

یکی از بزرگترین چالش‌های حل نشده در هوش مصنوعی، پیاده‌سازی «عقل سلیم» در سیستم‌های هوش مصنوعی است. عقل سلیم شامل حقایق پایه‌ای درباره جهان است؛ حقایقی که برای انسانها بدیهی تلقی می‌شوند، مانند «لیموترش ترش است» یا «گربه‌ها برای جذب دیگران میو میو می‌کنند». حل مسئله عقل سلیم به عنوان پیش‌نیاز دستیابی به هوش مصنوعی عمومی، مانعی اساسی در توسعه سیستم‌های واقعاً هوشمند محسوب می‌شود. عقل سلیم به انسان‌ها امکان می‌دهد حتی با اطلاعات ناقص، استنتاج‌های معقول انجام دهند و در موقعیت‌های ناآشنا، فرضیه‌سازی و سناریونویسی کنند. سیستم‌های هوش مصنوعی در ایجاد چنین ارتباطات شهودی که برای انسان، طبیعی است، با ناتوانی جدی روبرو هستند.

 

  • محدودیت‌های قانونی و اجتماعی؛ مقررات اروپا

اتحادیه اروپا با تصویب «مقررات هوش مصنوعی»، اولین چارچوب حقوقی جامع برای محدودسازی این فناوری به منظور کنترل آن را ایجاد کرده است؛ محدودیت‌هایی اساسی که توسعه و کاربرد سیستم‌های هوش مصنوعی را قابل کنترل می‌کند. این مقررات، کاربردهای هوش مصنوعی را به انواع «کلاس»های مختلف خطر، تقسیم‌بندی و الزامات متناظر برای توسعه دهندگان و کاربران را تعریف می‌کند. سیستم‌های پرخطر که دارای توانایی آسیب زنندگی جدی به سلامت، امنیت یا حقوق اساسی هستند، ملزم به رعایت مقررات سختگیرانه ای هستند شامل امکان شکایت توسط آسیب دیدگان و مستندسازی گسترده به منظور نظارت پیوسته.

ضرورت تعریف چنین محدودیت‌هایی از مخاطرات متنوع هوش مصنوعی ناشی می‌شود؛ از پردازش داده‌های حساس گرفته تا تصمیمات تأثیرگذار بر منافع شخصی و خسارات ناشی از سیستم‌های خودکار مانند تصادفات و حوادث خودران‌ها. عدم شفافیت الگوریتم‌ها نیز بر پیچیدگی مسئله می‌افزاید، چرا که بررسی عدالت و انصاف و صحت تصمیمات هوش مصنوعی را دشوار می‌سازد. البته منتقدان آمریکاییِ «مقررات هوش مصنوعیِ» مصوب اتحادیه اروپا از آثار منفی تنظیمات بیش از حد سختگیرانه و احتمال سرکوب نوآوری‌ها هشدار می‌دهند.

  • چالش‌های اخلاقی و شفافیت

علاوه بر محدودیت‌های قانونی و حقوقی، چالش‌های اخلاقی قابل توجهی در استفاده از هوش مصنوعی وجود دارد. نگرانی‌های مربوط به حریم خصوصی، امنیت و سوگیری، ضرورت حاکمیت مناسب و تنظیم مقررات را برجسته می‌سازد. در همین رابطه، توسعه «هوش مصنوعی توضیح‌پذیر» (Explainable Artificial Intelligence: XAI) برای بهبود شفافیت سیستم‌ها و امکان ردیابی فرآیند تصمیم‌گیری، به ویژه در حوزه‌های حساسی مانند بهداشت و امور مالی، درخواست می‌شود.

  • چالش ناتمامیت سیستم‌های رسمی

براساس قضایای دوگانه ناتمامیت منسوب به گودل (Goedel’ s Incompleteness Theorem ) سیستم‌های منطقی-ریاضی نمی‌توانند تمام حقایق درون چارچوب قواعد خود را اثبات کنند؛ این یک مرز بنیادی برای نمایش‌پذیری صوری قضایا در فضای سایبری و هوش مصنوعی است.

  • چالش عدم قطعیت در داده‌های اندازه‌گیری

 اصل عدم قطعیت ‌هایزنبرگ می‌گوید که محدودیت ذاتی در اندازه‌گیری دقیق و پیش‌بینی درست رفتار سیستم‌ها اعم از مجازی و واقعی وجود دارد.

  • چالش پیاده‌سازی دانش ضمنی

دانش ضمنی (Tacit Knowledge) مهارت‌های عملی هستند (مثل دوچرخه سواری یا هنرمندی متجلی در صنایع دستی) که در قالب داده‌ها، قابل مدل‌سازی و انتقال نیستند و لذا از جمله محدودیت‌های هوش مصنوعی به شمار می‌آیند.

  • چالش پدیده‌های پیچیده

سیستم‌های «ناگه برآینده» یا Emergent Systems، پدیده‌هایی هستند که از تعاملات غیرخطی نشأت می‌گیرند؛ درنتیجه نمی‌توان آنها را به طور کامل مدل سازی کرد.

  • چالش نظریه آشوب

نظریه آشوب (Chaos Theory)  می‌گوید: علت‌های کوچک و به ظاهر بی‌اهمیت، غالباً اثرات بزرگ و غیرقابل پیش‌بینی در پی دارند به طوری که الگوریتم‌های قطعی و کل سیستم نرم‌افزاری را ناگهان ناتوان می‌سازند.

 

  • چالش خلاقیت

الهامات هنری، فرآیندهای خلق آثار بدیع (مثلاً آهنگسازی) اغلب از رؤیا و ضمیر ناخودآگاه سرچشمه می‌گیرند که قابل بازتولید الگوریتمی ‌نیستند.

 

  • چالش شهود

تصمیم‌گیری‌های مبتنی بر شهود و «احساس درونی» از دانشی نانوشته و تجربه ناپذیر نشأت می‌گیرند که در قالب داده‌ها غیر قابل کدگذاری‌اند. به همین دلیل نمی‌توان بجای دست نامریی آدام اسمیت در تنظیم بازار، یک سیستم هوش مصنوعی را نشاند، زیرا که سیستم‌های هوش مصنوعی، داده‌های گذشته و از قبل موجود را پردازش می‌کنند ولی تصمیم‌گیریهای مبتنی بر «احساس درونی»، داده‌هایی آینده گرا هستند. این‌ها، نمونه‌هایی بودند از محدودیت‌های سیستم‌های هوش مصنوعی.

 

  • جمع‌بندی و نتیجه‌گیری

شناخت مرزها و محدودیت‌های هوش مصنوعی، پیش‌نیاز سیاست‌گذاری، تنظیم مقررات، وضع قوانین پیشگیری از جرایم ناشی از آن و تدوین استراتژی‌های رویکرد به این فناوری است.

بسیاری از کسانی که ابتدا، مرزها و محدودیت‌های فنی، فلسفی و اجتماعی فناوری هوش مصنوعی را در نظر نمی‌گیرند، و بدون آگاهی از این مرزها و محدودیت‌ها، در زمینۀ آینده نگاریِ تأثیر هوش مصنوعی بر جوامع متمدن، خیال پردازی می‌کنند و درنتیجه، جمعیت کشورها را ترکیبی از انسان و فرااِنسان می‌پندارند، تنها می‌توانند موضعی شِبهِ انتقادی بگیرند و به اظهار نظر و مقاله نویسیِ ظاهراً «علمی» در بارۀ آسیب‌های خیالی، چالش‌های فرضی و تهدید‌های موهومِ همزیستی انسان‌ها و ربات‌های فوق هوشمند بپردازند.

اگر بخواهم به ذکر نام تنها چند فرد داخلی از مشهورترینِ ایشان بسنده کنم، حداقل می‌توانم از کیومرث اشتریان، یونس شکرخواه، محمد سلطانی فر و‌ هادی خانیکی از میان بسیاری دیگر از دانشگاهیان همسو و همنظر با ایشان، نام ببرم.

اما علاوۀ بر برخی از دانشگاهیان ما، تعدادی از مدرسان حوزه علمیه نیز بدون داشتن آگاهی از مرزها و محدودیت‌های فناوری هوش مصنوعی، جمعیت آیندۀ کشورها را ترکیبی از انسان و فرااِنسان تصور می‌کنند.

برای مثال رجوع شود به برنامۀ «فقه پویا»ی صدا و سیمای جمهوری اسلامی ‌ایران در بارۀ «بررسی امکان تعیین مجازات‌های شرعی برای ربات‌ها» (پخش شده از رادیو معارف، 16 فروردین 1404) که در آن، مصاحبه شونده محترم (یک مدرس حوزه علمیه) بر ضرورت ساختن زندان‌هایی مختص ربات‌های مجرم و حبس و سلب آزادی عمل یا حتی سلب حیات از ربات‌های مجرم، و یا محکوم کردن آنها به ارائۀ خدمات رایگان به مردم ویا پرداختن جزای نقدی تأکید داشت و در پایان مصاحبه رادیویی، اضافه کرد که اگر ربات مجرم به نیروهای نظامی ‌و انتظامی ‌و ضابطین برای کشف جرم، همکاری مؤثر در شناسایی شرکاء یا معاونان، تحصیل ادله یا کشف اموال و اشیاء حاصله از جرم و یا به کار رفته برای ارتکاب جرم، کمک کرد، مشمول تخفیف می‌شود.

حقا که از این ملموس‌تر نمی‌توان ترکیب انسان و فرااِنسان را در جوامع متمدن آینده، سناریونویسی و خیال‌پردازی کرد! (منبع:عصرارتباط)

  • ۰۴/۰۳/۱۴

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">