نقدی بر تخیلات فناورانه از هوش مصنوعی

عباس پورخصالیان - سیستمهای هوش مصنوعی، گسترۀ وسیعی از انواع دستگاههای الکترونیکیِ خودکارِ دارای رفتار واکنشی را در بر میگیرند. این گسترۀ وسیع دارای دو مرز است: مرز پائینی با حداقل حسگری و درک موقعیت؛ و مرز بالایی با حداکثر حسگری، بیشترین درک موقعیت و بهترین رفتار واکنشی.
نوع رفتار واکنشی سیستم هوش مصنوعی، وابسته است به جایگاهش در درون این دو مرز.
قایل شدن به وجود مرز بالایی، پذیرفتنِ وجود محدودیتها در تواناییهای هوش مصنوعی است (در زیر به این محدودیتها خواهم پرداخت)؛ به خاطر این محدودیتها است که همۀ انواع سیستمهای هوش مصنوعی را دارای «هوش مصنوعی ضعیف» به حساب میآورند، در مقابلِ «هوش مصنوعی قوی» که مختص انسان است.
به عبارت دیگر: قایل شدن به وجود مرز بالایی، به این معنی است که عبور از «هوش مصنوعی ضعیف» به «هوش مصنوعی قوی» از لحاظ فنی، فلسفی و علمی محال است و هر چند فناوری هوش مصنوعی در آینده پیشرفت کند، چنین گذاری هیچگاه رخ نخواهد داد.
و قایل شدن به مرز پائینی نیز پذیرفتنِ حدی وجودشناختی ست و نقطۀ آغازین بحث تفاوت میانِ سیستمهای غیر هوشمند و سیستمهای هوشمند؛ موضوعی که برای مقرراتگذارِ احکام هوش مصنوعی و مجری یا قاضی دادگاههای جرایم رایانهای، امری حیاتی است ولی به رغم حیاتی بودن، تعیین و تعریف آن در متن قانون یا در سند ملی سیاستهای کلی نظام، معمولاً فراموش میشود!
مرز پایینی، کمینه و حداقلِ توانایی لازم برای آن است که رفتار یک سیستم را به عنوان «هوشمند» تعبیر کنیم.
از نظر فنی، اگر رفتار یک سیستم مبتنی بر قواعدی ساده باشد بر اساس قواعدی ساده وظایف مشخصی را انجام میدهد، مثل انجام چهار عمل اصلی توسط یک ماشینحساب؛ سیستم مربوط، هوشمند به حساب میآید.
و از دیدگاه فلسفی، چیستی مرز پائینی را این پرسش اساسی تعیین میکند که: هوش از کجا آغاز میشود؟ آیا هر سیستم واکنشی ساده، به صرف داشتن رفتار واکنشی، هوشمند است؟ یا فقط زمانی میتوانیم سیستمی را هوشمند بدانیم که آن سیستم بتواند بیاموزد و خود را تطبیق دهد؟
ولی از نظر اخلاقی نیز تعیین مرز پائینی مهم است؛ زیراکه معین میکند: تحت چه شرایطی یک سیستم، «هوشمند» و عامل، تعبیر میشود و در اثر عاملیت، اهمیت، اعتبار و مسؤولیت اجتماعی پیدا میکند.
مرز پایینی، جایی است که یک سیستم شروع به نشان دادن رفتاری میکند که قابل تفسیر به عنوان «کنش هدفدار» است، حتی اگر سیستم، واقعاً نیت انجام آن کنش یا آگاهی از کنش را نداشته باشد.
اما مرز بالایی به معنی بیشینۀ توانایی هوش مصنوعی است. برای تعیین مرزبالایی، مجبوریم که وارد حوزه ای فرضی و نظری شویم:
یک مرز بالاییِ ممکن، هوش مصنوعی عمومی(Artificial General Intelligence: AGI) یا همان «هوش مصنوعی قوی» است؛ یعنی سیستمیکه بتواند در تمام کارهای ذهنی، مانند یک انسان و حتی برتر از انسان عمل کند.
فراتر از AGI نیز، ایدۀ «فراهوش» (Superintelligence) است؛ سیستمیکه فرض میشود در تمام زمینهها از انسان، برتر است، مانند آن روباتهای نیرومند و عاقلی که در داستانهای علمی/تخیلی مطرح میشوند.
از دیدگاه فلسفی، این پرسشها مطرحاند که: آیا مرزی ذاتی برای بیشینۀ هوش وجود دارد؟ آیا منطق، خودآگاهی، اراده، ریسک پذیری و امثالهم… مرزهایی ذاتی برای هوش مصنوعی محسوب میشوند؟ یا آیا حداقل مدت زمان محاسبه و بیشینۀ سرعت بازآوری منابع و ارائۀ راه حل به عنوان شاخص هوش، مرزی دارد؟ یا این که هوش، بالقوه نامحدود است؟ البته درصورتی که فرض کنیم انرژی، ماده و زمان به صورت نامحدود در دسترس هستند؟
جنبه اخلاقی و مخاطرهآمیز پرسش از مرز بالایی، این است: اگر فناوری هوش مصنوعی مرزی بالایی نداشته باشد، چه؟ آن وقت عقاید تکینگی گرایان در این باره که: «بشریت مجبور است بالاخره یا با موجوداتی برتر از خود زندگی کند و یا منقرض شود زیراکه «فراهوشمندان» به انسان نیازی ندارند» لاجرم درست از آب در میآید.
به لحاظ تأملات و پرسشهای بالاست که تعیین مرزهای هوش مصنوعی، امری بسیار مهم است!
- «پرسشهای مرزی» به جای طرح مرزهای مطلق
شاید بهتر باشد به جای صحبت از «مرز»های ثابت، از «پرسشهای مرزی» سخن بگوییم، پرسشهایی از این دست:
– تا چه حد میتوانیم در فناوری هوش مصنوعی پیش برویم؟
– در کجا باید مرزهایی اخلاقی، حقوقی یا فرهنگی را تعیین کنیم؟
– بیو (Bio) یعنی چه؟ و مرز میان ابزار بودن و زیستمند بودن کجاست؟
– آیا ادراک و «آگاهی حسی» داشتن، حد پایینی هوش در سیستمهای هوش مصنوعی است؟
- محدودیتهای فناوری هوش مصنوعی
قایل شدن به وجود مرز برای سیستمهای هوش مصنوعی، زمینه ساز تفکر پیرامون محدودیتهای آنهاست. تمام دستاوردهای تاکنونی این فناوری، با موانع بنیادینی روبرو هستند که کاربردپذیری و قابلیت اطمینان این فناوری را محدود میسازند. این محدودیتها، طیف وسیعی از چالشهای فنی مانند وابستگی به حجم بیگ دیتا، وابستگی به کیفیت دادهها و فقدان قابلیت درک واقعی در سیستمهای هوش مصنوعی، تا مسائل فلسفی و اجتماعی نظیر ملاحظات اخلاقی و الزامات قانونی را دربر میگیرند.
همان طور که گفته شد: سیستمهای فعلی و آتی هوش مصنوعی در دسته «هوش مصنوعی ضعیف» قرار میگیرند؛ سیستمهایی که هرچند در انجام وظایف خاص دارای عملکردی تحسین برانگیز هستند، اما از انعطاف پذیری و درک شهودی هوش انسانی بسیار فاصله دارند.
در این سلسله از یادداشتها، بارها متذکر شدهام که هرآنچه به عدد در نمیآید، الگوریتمپذیر نیست و لذا بیرون از حوزۀ فناوری هوش مصنوعی میماند، و این ناتوانی در بازنمایی هرآنچه به عدد در نمیآید، محدودیت بزرگ این فناوری است.
پس، اساسیترین محدودیت هوش مصنوعی در وابستگی مطلق آن به دادهها نهفته است. میزان هوشمندی ماشینها مستقیماً به کیفیت دادههایشان گره خورده است. این محدودیت به اشکال مختلفی بروز میکند و پیامدهای گستردهای برای کاربرد سیستمهای هوش مصنوعی دارد. دادههای بیکیفیت نه تنها به نتایج نادرست میانجامند، بلکه میتوانند تحریفهای سیستماتیک و تبعیضآمیزی را تقویت کنند.
- فقدان درک واقعی در سیستمهای هوش مصنوعی
مشکل بنیادین سیستم هوش مصنوعی، ناتوانیاش در درک واقعی مفاهیم و معانی و ارزشها و لذتها است. اگرچه این سیستمها قادر به تشخیص الگوهای پیچیده و تصمیمگیری بر اساس آنها هستند، اما فاقد درک عمیق از معنای امور و طعم و عطر زمینهاند؛ ویژگیهایی که مختص هوش انسانی هستند. این ضعف فناوری هوش مصنوعی به ویژه در پردازش زبان طبیعی آشکار است، جایی که سیستمها میتوانند متنی دستوری و به ظاهر معنادار تولید کنند، اما در حفظ پیوستگی زمینهای و بافتاری در گفتگوهای طولانی مشکل دارند.
- معضل ناتوانی در پیادهسازی عقل سلیم
یکی از بزرگترین چالشهای حل نشده در هوش مصنوعی، پیادهسازی «عقل سلیم» در سیستمهای هوش مصنوعی است. عقل سلیم شامل حقایق پایهای درباره جهان است؛ حقایقی که برای انسانها بدیهی تلقی میشوند، مانند «لیموترش ترش است» یا «گربهها برای جذب دیگران میو میو میکنند». حل مسئله عقل سلیم به عنوان پیشنیاز دستیابی به هوش مصنوعی عمومی، مانعی اساسی در توسعه سیستمهای واقعاً هوشمند محسوب میشود. عقل سلیم به انسانها امکان میدهد حتی با اطلاعات ناقص، استنتاجهای معقول انجام دهند و در موقعیتهای ناآشنا، فرضیهسازی و سناریونویسی کنند. سیستمهای هوش مصنوعی در ایجاد چنین ارتباطات شهودی که برای انسان، طبیعی است، با ناتوانی جدی روبرو هستند.
- محدودیتهای قانونی و اجتماعی؛ مقررات اروپا
اتحادیه اروپا با تصویب «مقررات هوش مصنوعی»، اولین چارچوب حقوقی جامع برای محدودسازی این فناوری به منظور کنترل آن را ایجاد کرده است؛ محدودیتهایی اساسی که توسعه و کاربرد سیستمهای هوش مصنوعی را قابل کنترل میکند. این مقررات، کاربردهای هوش مصنوعی را به انواع «کلاس»های مختلف خطر، تقسیمبندی و الزامات متناظر برای توسعه دهندگان و کاربران را تعریف میکند. سیستمهای پرخطر که دارای توانایی آسیب زنندگی جدی به سلامت، امنیت یا حقوق اساسی هستند، ملزم به رعایت مقررات سختگیرانه ای هستند شامل امکان شکایت توسط آسیب دیدگان و مستندسازی گسترده به منظور نظارت پیوسته.
ضرورت تعریف چنین محدودیتهایی از مخاطرات متنوع هوش مصنوعی ناشی میشود؛ از پردازش دادههای حساس گرفته تا تصمیمات تأثیرگذار بر منافع شخصی و خسارات ناشی از سیستمهای خودکار مانند تصادفات و حوادث خودرانها. عدم شفافیت الگوریتمها نیز بر پیچیدگی مسئله میافزاید، چرا که بررسی عدالت و انصاف و صحت تصمیمات هوش مصنوعی را دشوار میسازد. البته منتقدان آمریکاییِ «مقررات هوش مصنوعیِ» مصوب اتحادیه اروپا از آثار منفی تنظیمات بیش از حد سختگیرانه و احتمال سرکوب نوآوریها هشدار میدهند.
- چالشهای اخلاقی و شفافیت
علاوه بر محدودیتهای قانونی و حقوقی، چالشهای اخلاقی قابل توجهی در استفاده از هوش مصنوعی وجود دارد. نگرانیهای مربوط به حریم خصوصی، امنیت و سوگیری، ضرورت حاکمیت مناسب و تنظیم مقررات را برجسته میسازد. در همین رابطه، توسعه «هوش مصنوعی توضیحپذیر» (Explainable Artificial Intelligence: XAI) برای بهبود شفافیت سیستمها و امکان ردیابی فرآیند تصمیمگیری، به ویژه در حوزههای حساسی مانند بهداشت و امور مالی، درخواست میشود.
- چالش ناتمامیت سیستمهای رسمی
براساس قضایای دوگانه ناتمامیت منسوب به گودل (Goedel’ s Incompleteness Theorem ) سیستمهای منطقی-ریاضی نمیتوانند تمام حقایق درون چارچوب قواعد خود را اثبات کنند؛ این یک مرز بنیادی برای نمایشپذیری صوری قضایا در فضای سایبری و هوش مصنوعی است.
- چالش عدم قطعیت در دادههای اندازهگیری
اصل عدم قطعیت هایزنبرگ میگوید که محدودیت ذاتی در اندازهگیری دقیق و پیشبینی درست رفتار سیستمها اعم از مجازی و واقعی وجود دارد.
- چالش پیادهسازی دانش ضمنی
دانش ضمنی (Tacit Knowledge) مهارتهای عملی هستند (مثل دوچرخه سواری یا هنرمندی متجلی در صنایع دستی) که در قالب دادهها، قابل مدلسازی و انتقال نیستند و لذا از جمله محدودیتهای هوش مصنوعی به شمار میآیند.
- چالش پدیدههای پیچیده
سیستمهای «ناگه برآینده» یا Emergent Systems، پدیدههایی هستند که از تعاملات غیرخطی نشأت میگیرند؛ درنتیجه نمیتوان آنها را به طور کامل مدل سازی کرد.
- چالش نظریه آشوب
نظریه آشوب (Chaos Theory) میگوید: علتهای کوچک و به ظاهر بیاهمیت، غالباً اثرات بزرگ و غیرقابل پیشبینی در پی دارند به طوری که الگوریتمهای قطعی و کل سیستم نرمافزاری را ناگهان ناتوان میسازند.
- چالش خلاقیت
الهامات هنری، فرآیندهای خلق آثار بدیع (مثلاً آهنگسازی) اغلب از رؤیا و ضمیر ناخودآگاه سرچشمه میگیرند که قابل بازتولید الگوریتمی نیستند.
- چالش شهود
تصمیمگیریهای مبتنی بر شهود و «احساس درونی» از دانشی نانوشته و تجربه ناپذیر نشأت میگیرند که در قالب دادهها غیر قابل کدگذاریاند. به همین دلیل نمیتوان بجای دست نامریی آدام اسمیت در تنظیم بازار، یک سیستم هوش مصنوعی را نشاند، زیرا که سیستمهای هوش مصنوعی، دادههای گذشته و از قبل موجود را پردازش میکنند ولی تصمیمگیریهای مبتنی بر «احساس درونی»، دادههایی آینده گرا هستند. اینها، نمونههایی بودند از محدودیتهای سیستمهای هوش مصنوعی.
- جمعبندی و نتیجهگیری
شناخت مرزها و محدودیتهای هوش مصنوعی، پیشنیاز سیاستگذاری، تنظیم مقررات، وضع قوانین پیشگیری از جرایم ناشی از آن و تدوین استراتژیهای رویکرد به این فناوری است.
بسیاری از کسانی که ابتدا، مرزها و محدودیتهای فنی، فلسفی و اجتماعی فناوری هوش مصنوعی را در نظر نمیگیرند، و بدون آگاهی از این مرزها و محدودیتها، در زمینۀ آینده نگاریِ تأثیر هوش مصنوعی بر جوامع متمدن، خیال پردازی میکنند و درنتیجه، جمعیت کشورها را ترکیبی از انسان و فرااِنسان میپندارند، تنها میتوانند موضعی شِبهِ انتقادی بگیرند و به اظهار نظر و مقاله نویسیِ ظاهراً «علمی» در بارۀ آسیبهای خیالی، چالشهای فرضی و تهدیدهای موهومِ همزیستی انسانها و رباتهای فوق هوشمند بپردازند.
اگر بخواهم به ذکر نام تنها چند فرد داخلی از مشهورترینِ ایشان بسنده کنم، حداقل میتوانم از کیومرث اشتریان، یونس شکرخواه، محمد سلطانی فر و هادی خانیکی از میان بسیاری دیگر از دانشگاهیان همسو و همنظر با ایشان، نام ببرم.
اما علاوۀ بر برخی از دانشگاهیان ما، تعدادی از مدرسان حوزه علمیه نیز بدون داشتن آگاهی از مرزها و محدودیتهای فناوری هوش مصنوعی، جمعیت آیندۀ کشورها را ترکیبی از انسان و فرااِنسان تصور میکنند.
برای مثال رجوع شود به برنامۀ «فقه پویا»ی صدا و سیمای جمهوری اسلامی ایران در بارۀ «بررسی امکان تعیین مجازاتهای شرعی برای رباتها» (پخش شده از رادیو معارف، 16 فروردین 1404) که در آن، مصاحبه شونده محترم (یک مدرس حوزه علمیه) بر ضرورت ساختن زندانهایی مختص رباتهای مجرم و حبس و سلب آزادی عمل یا حتی سلب حیات از رباتهای مجرم، و یا محکوم کردن آنها به ارائۀ خدمات رایگان به مردم ویا پرداختن جزای نقدی تأکید داشت و در پایان مصاحبه رادیویی، اضافه کرد که اگر ربات مجرم به نیروهای نظامی و انتظامی و ضابطین برای کشف جرم، همکاری مؤثر در شناسایی شرکاء یا معاونان، تحصیل ادله یا کشف اموال و اشیاء حاصله از جرم و یا به کار رفته برای ارتکاب جرم، کمک کرد، مشمول تخفیف میشود.
حقا که از این ملموستر نمیتوان ترکیب انسان و فرااِنسان را در جوامع متمدن آینده، سناریونویسی و خیالپردازی کرد! (منبع:عصرارتباط)