داوری را به هوش مصنوعی نسپارید

عباس پورخصالیان - هیچگاه خروجی چتبات را بی تأمل و تفکر ترویج نکنید! اگر داوری مطلبی را از پلتفرم هوش مصنوعی درخواست میکنید، به هوش باشید: قضاوت پلتفرم در مورد یک مطلب واحد، در اِزای پرسشهای مترادف اما دارای بافت متفاوت، میتواند کاملا متناقض باشد!
برای نمونه: اگر یکبار از پلتفرم چت جیپیتی بپرسید « آیا نظری انتقادی نسبت به این مقاله داری؟» و بار دیگر بپرسید «نظرت راجع به این مقاله چیست؟» به رغم این که موضوع داوری، واحد است و پرسشها مترادف، چه بسا دو پاسخ متضاد دریافت کنید. این اتفاق (دریافت دو پاسخ متضاد از یک چتبات) برای من افتاد، به شرح زیر:
- دو داوری متناقض در مورد یک مقاله
یکی از خوانندگانِ «مرزها و محدودیتهای فناوری هوش مصنوعی» (رجوع شود به مقاله مربوط، در این نشانی: https://asreertebat.com/the-boundaries-and-limitations-of-artificial-intelligence-technology)، گزارههای یادداشتم را نمیپسندد و از پلتفرم چت جیپیتی داوری پیرامون متن یادداشت را درخواست میکند.
خوانندۀ خواهان داوری، به انگلیسی از چت جیپیتی میپرسد:
“Do you have any criticisms regarding this <…>”
( به فارسی: « آیا نظری انتقادی نسبت به این <…> داری؟») –
و بجایِ این <…> وی متن مقاله مذکور را به چتبات ارائه میکند و چند لحظه بعد، نقد چتبات را دریافت میکند، نقدی که خط بطلان بر اغلب گزارههای متن میکشد!
در زیر نخست عین پاسخ پلتفرم چت جیپیتی را [ترجمه شده از انگلیسی به فارسی توسط خود پلتفرم چت جیپیتی] میآورم و سپس در بخش دوم این یادداشت، «دیگرپاسخ» همان پلتفرم را نسبت به همان مطلب، در قبال پرسشی مترادف اما فقط از لحاظ بافت اندکی متفاوت، الصاق میکنم.
خلاصۀ داوری چتبات: «مطلب مورد نظر حاوی ادعاهایی غیر علمی، ناکافی و مردود است!»
مشروح پاسخِ چت جیپیتی:
«نوشتۀ عباس پورخصالیان اگرچه تلاشی برای تحلیل مرزهای هوش مصنوعی است، اما مبتنی بر پیشفرضهای محدودکننده، اطلاعات ناکافی درباره پیشرفتهای اخیر AIو نگاهی تقلیلگرایانه به پتانسیلهای این فناوری است. در ادامه به چند نکته اساسی اشاره میکنم:
- ادعای «محال بودن هوش مصنوعی قوی (AGI) » بدون پشتوانه علمیاست.
نویسنده ادعا میکند گذار از هوش مصنوعی ضعیف (Narrow AI) به هوش مصنوعی عمومی(AGI) از نظر فنی، فلسفی و علمی محال است. اما:
- از لحاظ فنی: پیشرفتهای انقلابی در مدلهای زبانی (مانند GPT-4، Gemini)، سیستمهای چندوجهی (مثل OpenAI’s Sora) و معماریهای عصبی نشان میدهد که مرز بین هوش مصنوعی اختصاصی و عمومی در حال محو شدن است.
- از لحاظ فلسفی: بحث «آگاهی ماشینی» هنوز باز است. فیلسوفانی مانند دیوید چالمرز معتقدند آگاهی ممکن است یک پدیدۀ محاسباتی باشد.
- از لحاظ علمی: پژوهشهایی مانند پروژههای نورالینک (ایلان ماسک) یا تحقیقات DeepMind در شبیهسازی مغز، رد قطعیِ امکان AGI را ناممکن میکند.
- بیتوجهی به پیشرفتهای اخیر در حل محدودیتهای کلاسیک AI
اگرچه نویسنده به درستی به چالشهایی مثل «عدم درک واقعی»، «ناتوانی در عقل سلیم» و «خلاقیت» اشاره میکند، اما غافل از این است که:
- در مورد عقل سلیم: پروژههایی مانند ARC (Allen Institute for AI) یا مدلهای مبتنی بر «جهانهای کوچک» (مثل Meta’s CICERO) در حال تقلید از استدلال انسانی هستند.
- در مورد «خلاقیت»: سیستمهایی مانند DALL·E 3 یا AlphaFold 3 نه تنها الگوها را کپی نمیکنند، بلکه «ترکیبات نو» خلق میکنند (مثلاً طراحی پروتئینهای کاملاً جدید).
- در مورد «درک زمینه» (Context) : مدلهای ترنسفورمر امروزی (مثلClaude 3 ) توانایی حفظ پیوستگی گفتگوهای طولانی را دارند، برخلاف ادعای نویسنده.
-
تفسیر نادرست از محدودیتهای نظری
- در مورد «قضیه ناتمامیت گودل»: این قضیه به «سیستمهای صوری» اشاره دارد، نه سیستمهای یادگیری عمیق که مبتنی بر احتمال و بهینهسازی هستند. هوش مصنوعی مدرن لزوماً نیازی به «اثبات ریاضی» تمام گزارهها ندارد.
- در مورد «اصل عدم قطعیتهایزنبرگ»: این اصل در مکانیک کوانتوم مطرح است و ربطی به محدودیتهای داده کاوی یا پیشبینیهای هوش مصنوعی ندارد.
- نادیده گرفتن پویایی فناوری و قانونگذاری
نویسنده مقررات اتحادیه اروپا را بهعنوان سدی در برابر توسعه AI معرفی میکند، اما:
- این مقررات صرفاً برای «امنیت کاربران» طراحی شدهاند، نه توقف نوآوری. شرکتهایی مانند DeepMind و OpenAI خود از تنظیمگری استقبال میکنند.
- «تنظیمگری ≠ محدودیت مطلق»: همان طور که قوانین رانندگی مانع از پیشرفت خودروها نشدند، مقررات AI نیز لزوماً بازدارنده نیستند.
- طنز تلخ در مورد «رباتهای مجرم»
انتقاد نویسنده به بحثهای فقهی درباره «مجازات رباتها»، نشاندهنده عدم درک «سرعت تحولات اجتماعی-فناورانه» است:
- اگر رباتها دارای «عاملیت تصمیمگیری مستقل» شوند (مثل خودروهای خودران)، بحث مسئولیت حقوقی آنها اجتنابناپذیر است.
- کشورهایی مانند ژاپن و عربستان در حال تدوین قوانین برای تعامل انسان و ربات هستند. آیا اینها هم «خیالپردازی» است؟
- جمعبندی: واقعگرایی ≠ انکار پتانسیلها
مقاله آقای پورخصالیان بیشتر شبیه «هشدارهای دهه ۱۹۸۰ درباره اینترنت» است: تمرکز بر محدودیتهای موقت بهجای درک مسیر انقلابی فناوری. هوش مصنوعی نه تنها مرزهای امروز را خواهد شکست، بلکه پرسشهای فلسفی و حقوقی کاملاً جدیدی را مطرح خواهد کرد.
پینوشت: به جای سناریوهای «فراانسان»، بهتر است به دنبال «همزیستی هوشمندانه» با فناوری باشیم، نه انکار!»
[پایان داوری انتقادی چتبات، (نسبت به مقالۀ مرزها و محدودیتهای فناوری هوش مصنوعی)]
خواننده محترم (آقای س.ب)، پس از دریافت پاسخ انتقادی مذکور از چت جیپیتی، متن آن را برای یکی از آشنایان مشترک میفرستد و این آشنای مشترک، با بازارسال آن برای من، مرا در جریان امر قرار میدهد.
آن روز، این اتفاق (دریافت متن داوری انتقادی چتبات در مورد یادداشتم) به قدری برایم جالب بود که هر کسی با من تماس تلفنی برقرار میکرد و میپرسید: «چه خبر؟» جواب میدادم: «چت جیپیتی یادداشتم در باره «مرزها و محدودیتهای فناوری هوش مصنوعی» را مورد نقد قرار داده و آن را مردود شمرده».
دست بر قضا همان روز، یکی از کسانی که از طریق ویدیوکالِ «بله» با من تماس گرفته بود همین که خبر اظهار نظر منفی چت جیپیتی در بارۀ یادداشتم را به او دادم، در ادامۀ گفتگو حرفم را قطع کرد و گفت: مطمئنی؟
من الآن اظهار نظر چت جیپیتی را در بارۀ یادداشت تو روی گوشیام دارم. داوریاش درباره مقالۀ «مرزها و محدودیتهای فناوری هوش مصنوعی» کاملاً مثبت است!
گفتم، این «دیگرپاسخ» چت جیپیتی را برایم بفرست. فرستاد! دیدم، این «دیگرپاسخ»، نسبت به پاسخ قبلی، یکصدوهشتاد درجه اختلاف دیدگاه دارد!
خلاصۀ «دیگرپاسخِ» چتبات در مورد همان مقاله: «مطلب مورد نظر حاوی نکاتی وزین، منسجم، آموزنده و بهروز است.»
- مشروح «دیگرپاسخِ» چت جیپیتی:
«این مقالهی تحلیلی از عباس پورخصالیان، بهطور منسجم و چندوجهی به نقد تخیلات اغراقآمیز درباره آینده هوش مصنوعی میپردازد و با تأکید بر واقعگرایی، ضرورت درک «مرزها و محدودیتها» را پیشنیاز سیاستگذاری مؤثر در این حوزه میداند.
چند نکته قابلتوجه درباره مقاله:
- نقاط قوت مقاله:
- تقسیمبندی روشن مفاهیم
نویسنده با تعریف «مرز پایینی» و «مرز بالایی» در هوش مصنوعی، چارچوبی مفهومی برای تمایز بین هوش مصنوعی ضعیف و قوی ترسیم میکند که برای درک محدودیتهای فناوری بسیار مفید است.
- پوشش چندلایه: فنی، فلسفی، اخلاقی و حقوقی
نگاه جامع به محدودیتهای AI نه تنها از منظر فنی (مثل وابستگی به دادهها یا نبود عقل سلیم) بلکه از دیدگاههای فلسفی، اجتماعی و حقوقی نیز بررسی شده، که عمق مقاله را افزایش میدهد.
- نقد شجاعانه به خیالپردازیهای داخلی
نویسنده به صراحت از برخی روشنفکران و حتی مدرسان حوزه علمیه انتقاد میکند که بدون درک علمی، دربارۀ آیندۀ فراانسانها نظر میدهند و سناریوهای ناپخته یا تخیلی میسازند.
- اشاره به مقررات اتحادیه اروپا (AI Act)
یکی از کاربردیترین بخشهای مقاله، بررسی مقررات اروپایی و دستهبندی ریسک در کاربردهای مختلف AI است که میتواند الگوی خوبی برای سیاستگذاری داخلی باشد.
- نقاط قابل بحث یا بهبود:
- بیتوجهی به نوآوریهای برآینده
گرچه مقاله به درستی محدودیتهای فعلی هوش مصنوعی را نشان میدهد، اما گاهی لحنی دارد که امکان پیشرفتهای غیرمنتظره را نادیده میگیرد یا دستکم میگیرد.
- واکنش گزینشی به نگاههای آیندهنگر
برخی آیندهنگریها (حتی اگر تخیلی باشند) ممکن است به تولید نظریه یا فناوری منجر شوند. رد کامل آنها شاید کمیسختگیرانه به نظر برسد، حتی اگر هدف مقاله، واقعگرایی باشد.
- مستندسازی بیشتر میتوانست مقاله را قویتر کند در بخشهایی از مقاله به نقل از مصاحبهها یا برنامههای رسانهای داخلی اشاره شده، که بهتر بود دقیق تر مستند شوند (با تاریخ، نام برنامه، نقل قول دقیقتر).
- جمعبندی:
این مقاله یک دعوت صریح به واقعگرایی علمی و سیاستگذاری مبتنی بر مرزهای فناوری است. نگاه منصفانهاش به قابلیتها و ضعفهای هوش مصنوعی، آن را به متنی وزین، آموزنده و بهروز برای مخاطبانی در سطوح سیاستگذاری، دانشگاهی، و حتی علاقهمندان عمومیتبدیل میکند!»
[پایان «دیگرپاسخِ» چتبات، (به مقالۀ مرزها و محدودیتهای فناوری هوش مصنوعی)]
- نتیجه گیری
دلیل دریافت این دو پاسخ متضاد از یک چتبات را باید در بافتار سوالها، نهفته دانست. یکی پرسیده: « آیا نظری انتقادی نسبت به این [مقاله] داری؟» و دیگری سوال کرده: «نظرت راجع به این مقاله چیست؟»
هردو جمله، داوری چتبات را در خصوص مطلبی واحد درخواست میکنند. مضمون پرامپت اول، پرسش از نظر انتقادی و مضمون پرامپت دوم، نظرخواهی است.
دو پرامپت مذکور هر اندازه برای ما انسانها، مترادف باشند، برای چتبات، متفاوت هستند، آن هم از لحاظ متعدد.
- مهندسان پرامپتینگ تفاوت شناسی را به چتبات میآموزند!
آنها به چتبات میآموزند که:
- درکintention یا نیت کاربر یکی از مهمترین وظایف توست! [البته درک نیت اصلی کاربر به تمام و کمال، برای خود مهندسان پرامپتینگ محال است، با این وجود، مهندس پرامپتینگ میکوشد، این فرآیند را با استفاده از فناوریهای پردازش زبان طبیعی (NLP) و یادگیری ماشین تا حدودی درک کرده و درک خود را در چند گام کلیدی به چتبات منتقل کند؛ آن هم در چند گام کلیدی:
- پرسش کاربر را دریافت کن و به تجزیه آن بپرداز!
- ابتدا متن یا صدای ورودی کاربر را دریافت و آن را به واحدهای کوچکتر زبانی (کلمات و جملات یا به اصطلاح «توکن») تقسیم کن تا بتوانی ساختار جمله کاربر را تحلیل کنی.
- برای تحلیل نحوی و معنایی، ساختار جمله (کارکرد کلمات) و معنای آن را بررسی کن! آنوقت به کمک تحلیل معنایی، هستارها (entities) مانند نامها، مکانها یا اشیاء را شناسایی و روابط بین آنها را استخراج کن! برای مثال: اگر کاربر بنویسد یا بگوید: «میخواهم یک کتاب سفارش دهم»، نیت او «سفارش» است و «کتاب» یک هستار (entity) محسوب میشود.
- پیام کاربر را در دستهبندیهای از پیش تعریفشده در مدل یادگیری ماشین، قرار بده! تا نیت او را به درستی تشخیص بدهی.
- پاسخ مناسب را بر اساس نیت و هستارها از طریق پایگاه داده یا با تولید متن جدید انجام بده! اگر نیت کاربر مبهم باشد، سوالات تکمیلی بپرس! یا گزینههایی برای انتخاب ارائه کن.
مهندسان پرامپتینگِ چتباتها با تحلیل بازخورد کاربران و تعاملات قبلی، مدلهای زبانی را بهبود میدهند.
درنتیجه: چتبات در تشخیص نیت و پاسخدهی دقیقتر میشود، آن هم از طریقِ:
- شناسایی موتیفها و مضامین: هوش مصنوعی در یافتن واژگان، عبارات، نمادها یا مفاهیم تکرارشونده در حجم عظیمی از متون (حتی در سطح یک پیکره زبانی کامل) با سرعت و دقتی فراتر از توان انسان، بسیار قوی است.
- تحلیل سبکشناسی و نویسندگی: چتبات میتواند با بررسی سبک نگارش (طول جملات، واژگان و الگوهای نحوی) نویسنده احتمالی، تأثیرات ادبی یا تحول سبکی را شناسایی کند.
- تحلیل ساختاری: چتبات قابلیت ترسیم ساختار پیرنگ، شبکه روابط شخصیتها یا جدول زمانی روایت را بهصورت کارآمد دارد.
- بررسی بینامتنیّت (Intertextuality): چتبات توانایی شناسایی ارجاعات، اشارات یا شباهتها به آثار دیگر را با استفاده از پایگاه دادهای گسترده دارد.
- خلاصهسازی و ترکیب اطلاعات : چتبات میتواند پیرنگ داستانها، استدلالها یا مقالات انتقادی پیچیده را بهسرعت خلاصه کند و به این ترتیب، توان ترکیب اطلاعات از منابع گوناگون (مانند زمینه تاریخی، جزئیات زندگینامهای، دیدگاههای مختلف انتقادی) را دارد.
اما چتبات در انجام این امور محدودیتها و ضعفهای جدی دارد:
۱. فقدان درک واقعی و آگاهی: هوش مصنوعی مفاهیم را در ابعاد معنای انسانی آنها درک نمیکند. آنچه انجام میدهد تحلیل آماری زبان بر اساس الگوهای موجود در دادههای آموزشی است. لذا چتبات فاقد تجربه زیسته، عمق عاطفی و آگاهی ای است که برای درک کامل معنای انسانی یک متن ضروری اند.
۲. ناتوانی در درک ظرافت، ایهام و لایههای پنهان: هوش مصنوعی در مواجهه با طعنه، کنایه، طنز، استعارههای پیچیده، و ایهام که مفاهیم را غنی میکند، دچار مشکل جدی است. لذا چتبات اغلب تفسیرهایی سطحی یا تحت لفظی ارائه میکند.
۳. نداشتن تجربه ذهنی یا همدلی: نقد مقاله اغلب شامل پیوند دادن متن با وضعیت انسانی شامل احساسات، اخلاق، روانشناسی و تاریخ است. هوش مصنوعی فاقد تجربه شخصی، همدلی واقعی با شخصیتها یا توانایی حس کردن بار احساسی متن مورد نظر است. لذا تحلیلهای چتبات آماری هستند، نه احساسی/معرفتی.
۴. نبود بینش اصیل و قضاوت انتقادی: هوش مصنوعی در ترکیب و بازتاب ایدههای موجود در دادههای آموزشی بسیار قوی است، اما برای تولید تفسیرهای واقعاً اصیل، بدیع یا صدور قضاوتهای ارزشی ظریف درباره زیباییشناسی، اخلاق یا فلسفه یک اثر دچار ضعف جدی است. درنتیجه: استدلالهای چتبات نیز غالباً تقلیدی هستند.
۵. نقاط کور زمینهای/بافتاری: چتبات هرچند میتواند اطلاعات زمینهای/بافتاری/تاریخی را بازیابی کند، اما در ادغام عمیق روح زمانه و بار فرهنگی، سیاسی یا فلسفی در تحلیلهایش ناتوان است و لذا غالباً ناتوان از درک این ست که چگونه یک متن با زمینه و بافتارش درگیر میشود یا آن را بازنمایی میکند.
۶. تقویت سوگیریها: مدلهای هوش مصنوعی سوگیریهای موجود در دادههای آموزشی را به ارث میبرند و ممکن است آنها را حتی تقویت هم بکنند. این امر میتواند به تحلیلهایی منجر شود که تکراری، جانبدارانه یا تحکیمکننده ساختارهای قدرت حاکم هستند.
و در نهایت اینکه هوش مصنوعی جایگزین، تعقل و تفکر انسانی نیست زیرا اساساً فاقد آگاهی، تجربه زیسته، هوش عاطفی، توانایی قضاوتِ با فتوت و قدرت تولید بینشهای اصیل است.
با این وچود، چتبات بهترین مشاور و همکار انسان است: در صورتی که انسان، به تصمیم و قضاوت نهایی خود تکیه کند. (منبع:عصرارتباط)