ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

داوری را به هوش مصنوعی نسپارید

| سه شنبه, ۲۸ خرداد ۱۴۰۴، ۰۲:۴۲ ب.ظ | ۰ نظر

عباس پورخصالیان - هیچگاه خروجی چت‌بات را بی تأمل و تفکر ترویج نکنید! اگر داوری مطلبی را از پلتفرم هوش مصنوعی درخواست می‌کنید، به هوش باشید: قضاوت پلتفرم در مورد یک مطلب واحد، در اِزای پرسش‌های مترادف اما دارای بافت متفاوت، می‌تواند کاملا متناقض باشد!

برای نمونه: اگر یکبار از پلتفرم چت جی‌پی‌تی بپرسید « آیا نظری انتقادی نسبت به این مقاله داری؟» و بار دیگر بپرسید «نظرت راجع به این مقاله چیست؟» به رغم این که موضوع داوری، واحد است و پرسش‌ها مترادف، چه بسا دو پاسخ متضاد دریافت کنید. این اتفاق (دریافت دو پاسخ متضاد از یک چت‌بات) برای من افتاد، به شرح زیر:

 

  • دو داوری متناقض در مورد یک مقاله

یکی از خوانندگانِ «مرزها و محدودیت‌های فناوری هوش مصنوعی» (رجوع شود به مقاله مربوط، در این نشانی: https://asreertebat.com/the-boundaries-and-limitations-of-artificial-intelligence-technology)، گزاره‌های یادداشتم را نمی‌پسندد و از پلتفرم چت جی‌پی‌تی داوری پیرامون متن یادداشت را درخواست می‌کند.

خوانندۀ خواهان داوری، به انگلیسی از چت جی‌پی‌تی می‌پرسد:

 “Do you have any criticisms regarding this <…>”

( به فارسی: « آیا نظری انتقادی نسبت به این <…> داری؟») –

و بجایِ این <…> وی متن مقاله مذکور را به چت‌بات ارائه می‌کند و چند لحظه بعد، نقد چت‌بات را دریافت می‌کند، نقدی که خط بطلان بر اغلب گزاره‌های متن می‌کشد!

در زیر نخست عین پاسخ پلتفرم چت جی‌پی‌تی را [ترجمه شده از انگلیسی به فارسی توسط خود پلتفرم چت جی‌پی‌تی] می‌آورم و سپس در بخش دوم این یادداشت، «دیگرپاسخ» همان پلتفرم را نسبت به همان مطلب، در قبال پرسشی مترادف اما فقط از لحاظ بافت اندکی متفاوت، الصاق می‌کنم.

خلاصۀ داوری چت‌بات: «مطلب مورد نظر حاوی ادعاهایی غیر علمی، ناکافی و مردود است!»

 مشروح پاسخِ چت جی‌پی‌تی:

«نوشتۀ عباس پورخصالیان اگرچه تلاشی برای تحلیل مرزهای هوش مصنوعی است، اما مبتنی بر پیش‌فرض‌های محدودکننده، اطلاعات ناکافی درباره پیشرفت‌های اخیر  AIو نگاهی تقلیل‌گرایانه به پتانسیل‌های این فناوری است. در ادامه به چند نکته اساسی اشاره می‌کنم:

  • ادعای «محال بودن هوش مصنوعی قوی (AGI) » بدون پشتوانه علمی‌است.

نویسنده ادعا می‌کند گذار از هوش مصنوعی ضعیف (Narrow AI) به هوش مصنوعی عمومی‌(AGI)  از نظر فنی، فلسفی و علمی ‌محال است. اما:

  • از لحاظ فنی: پیشرفت‌های انقلابی در مدل‌های زبانی (مانند GPT-4، Gemini)، سیستم‌های چندوجهی (مثل OpenAI’s Sora) و معماری‌های عصبی نشان می‌دهد که مرز بین هوش مصنوعی اختصاصی و عمومی ‌در حال محو شدن است.
  • از لحاظ فلسفی: بحث «آگاهی ماشینی» هنوز باز است. فیلسوفانی مانند دیوید چالمرز معتقدند آگاهی ممکن است یک پدیدۀ محاسباتی باشد.
  • از لحاظ علمی: پژوهش‌هایی مانند پروژه‌‌های نورالینک (ایلان ماسک) یا تحقیقات DeepMind در شبیه‌سازی مغز، رد قطعیِ امکان AGI را ناممکن می‌کند.
  • بی‌توجهی به پیشرفت‌های اخیر در حل محدودیت‌های کلاسیک AI 

اگرچه نویسنده به ‌درستی به چالش‌هایی مثل «عدم درک واقعی»، «ناتوانی در عقل سلیم» و «خلاقیت» اشاره می‌کند، اما غافل از این است که:

  • در مورد عقل سلیم: پروژه‌‌هایی مانند ARC (Allen Institute for AI) یا مدل‌های مبتنی بر «جهان‌های کوچک» (مثل Meta’s CICERO) در حال تقلید از استدلال انسانی هستند.
  • در مورد «خلاقیت»: سیستم‌‌هایی مانند DALL·E 3 یا AlphaFold 3 نه‌ تنها الگوها را کپی نمی‌کنند، بلکه «ترکیبات نو» خلق می‌‌کنند (مثلاً طراحی پروتئین‌های کاملاً جدید).
  • در مورد «درک زمینه» (Context) : مدل‌های ترنسفورمر امروزی (مثلClaude 3 ) توانایی حفظ پیوستگی گفتگوهای طولانی را دارند، برخلاف ادعای نویسنده.
  • تفسیر نادرست از محدودیت‌های نظری
    • در مورد «قضیه ناتمامیت گودل»: این قضیه به «سیستم‌های صوری» اشاره دارد، نه سیستم‌های یادگیری عمیق که مبتنی بر احتمال و بهینه‌سازی هستند. هوش مصنوعی مدرن لزوماً نیازی به «اثبات ریاضی» تمام گزاره‌ها ندارد.
    • در مورد «اصل عدم قطعیت‌هایزنبرگ»: این اصل در مکانیک کوانتوم مطرح است و ربطی به محدودیت‌های داده ‌کاوی یا پیش‌بینی‌های هوش مصنوعی ندارد.
  • نادیده گرفتن پویایی فناوری و قانون‌گذاری

نویسنده مقررات اتحادیه اروپا را به‌عنوان سدی در برابر توسعه AI معرفی می‌کند، اما:

  • این مقررات صرفاً برای «امنیت کاربران» طراحی شده‌اند، نه توقف نوآوری. شرکت‌هایی مانند DeepMind  و OpenAI خود از تنظیم‌گری استقبال می‌کنند.
  • «تنظیم‌گری ≠ محدودیت مطلق»: همان‌ طور که قوانین رانندگی مانع از پیشرفت خودروها نشدند، مقررات AI نیز لزوماً بازدارنده نیستند.
  • طنز تلخ در مورد «ربات‌های مجرم»

انتقاد نویسنده به بحث‌های فقهی درباره «مجازات ربات‌ها»، نشان‌دهنده عدم درک «سرعت تحولات اجتماعی-فناورانه» است:

  • اگر ربات‌ها دارای «عاملیت تصمیم‌گیری مستقل» شوند (مثل خودروهای خودران)، بحث مسئولیت حقوقی آنها اجتناب‌ناپذیر است.
  • کشورهایی مانند ژاپن و عربستان در حال تدوین قوانین برای تعامل انسان و ربات هستند. آیا اینها هم «خیال‌پردازی» است؟
  • جمع‌بندیواقع‌گرایی  انکار پتانسیل‌ها

مقاله آقای پورخصالیان بیشتر شبیه «هشدارهای دهه ۱۹۸۰ درباره اینترنت» است: تمرکز بر محدودیت‌های موقت به‌جای درک مسیر انقلابی فناوری. هوش مصنوعی نه ‌تنها مرزهای امروز را خواهد شکست، بلکه پرسش‌های فلسفی و حقوقی کاملاً جدیدی را مطرح خواهد کرد.

پینوشت: به جای سناریوهای «فراانسان»، بهتر است به دنبال «همزیستی هوشمندانه» با فناوری باشیم، نه انکار!»

[پایان داوری انتقادی چت‌بات، (نسبت به مقالۀ مرزها و محدودیت‌های فناوری هوش مصنوعی)]

خواننده محترم (آقای س.ب)، پس از دریافت پاسخ انتقادی مذکور از چت جی‌پی‌تی، متن آن را برای یکی از آشنایان مشترک می‌فرستد و این آشنای مشترک، با بازارسال آن برای من، مرا در جریان امر قرار می‌دهد.

آن روز، این اتفاق (دریافت متن داوری انتقادی چت‌بات در مورد یادداشتم) به قدری برایم جالب بود که هر کسی با من تماس تلفنی برقرار می‌کرد و می‌پرسید: «چه خبر؟» جواب می‌دادم: «چت جی‌پی‌تی یادداشتم در باره «مرزها و محدودیت‌های فناوری هوش مصنوعی» را مورد نقد قرار داده و آن را مردود شمرده».

دست بر قضا همان روز، یکی از کسانی که از طریق ویدیوکالِ «بله» با من تماس گرفته بود همین که خبر اظهار نظر منفی چت جی‌پی‌تی در بارۀ یادداشتم را به او دادم، در ادامۀ گفتگو حرفم را قطع کرد و گفت: مطمئنی؟

من الآن اظهار نظر چت جی‌پی‌تی را در بارۀ یادداشت تو روی گوشی‌ام دارم. داوری‌اش درباره مقالۀ «مرزها و محدودیت‌های فناوری هوش مصنوعی» کاملاً مثبت است!

گفتم، این «دیگرپاسخ» چت جی‌پی‌تی را برایم بفرست. فرستاد! دیدم، این «دیگرپاسخ»، نسبت به پاسخ قبلی، یکصدوهشتاد درجه اختلاف دیدگاه دارد!

خلاصۀ «دیگرپاسخِ» چت‌بات در مورد همان مقاله: «مطلب مورد نظر حاوی نکاتی وزین، منسجم، آموزنده و به‌روز است.»

 

  • مشروح «دیگرپاسخِ» چت جی‌پی‌تی:

«این مقاله‌‌ی تحلیلی از عباس پورخصالیان، به‌طور منسجم و چندوجهی به نقد تخیلات اغراق‌آمیز درباره آینده هوش مصنوعی می‌‌پردازد و با تأکید بر واقع‌گرایی، ضرورت درک «مرزها و محدودیت‌ها» را پیش‌نیاز سیاست‌گذاری مؤثر در این حوزه می‌‌داند.

چند نکته قابل‌توجه درباره مقاله:

  • نقاط قوت مقاله:
  1. تقسیم‌بندی روشن مفاهیم

نویسنده با تعریف «مرز پایینی» و «مرز بالایی» در هوش مصنوعی، چارچوبی مفهومی ‌برای تمایز بین هوش مصنوعی ضعیف و قوی ترسیم می‌کند که برای درک محدودیت‌های فناوری بسیار مفید است.

  1. پوشش چندلایه: فنی، فلسفی، اخلاقی و حقوقی

نگاه جامع به محدودیت‌های AI نه ‌تنها از منظر فنی (مثل وابستگی به داده‌ها یا نبود عقل سلیم) بلکه از دیدگاه‌های فلسفی، اجتماعی و حقوقی نیز بررسی شده، که عمق مقاله را افزایش می‌‌دهد.

  1. نقد شجاعانه به خیال‌پردازی‌های داخلی

نویسنده به ‌صراحت از برخی روشنفکران و حتی مدرسان حوزه علمیه انتقاد می‌کند که بدون درک علمی، دربارۀ آیندۀ فراانسان‌ها نظر می‌دهند و سناریوهای ناپخته یا تخیلی می‌سازند.

  1. اشاره به مقررات اتحادیه اروپا (AI Act)

یکی از کاربردی‌‌ترین بخش‌های مقاله، بررسی مقررات اروپایی و دسته‌‌بندی ریسک در کاربردهای مختلف AI است که می‌تواند الگوی خوبی برای سیاست‌گذاری داخلی باشد.

  • نقاط قابل بحث یا بهبود:
  • بی‌توجهی به نوآوری‌های برآینده

گرچه مقاله به درستی محدودیت‌های فعلی هوش مصنوعی را نشان می‌‌دهد، اما گاهی لحنی دارد که امکان پیشرفت‌های غیرمنتظره را نادیده می‌گیرد یا دست‌کم می‌گیرد.

  • واکنش گزینشی به نگاه‌های آینده‌‌نگر

برخی آینده‌‌نگری‌ها (حتی اگر تخیلی باشند) ممکن است به تولید نظریه یا فناوری منجر شوند. رد کامل آن‌ها شاید کمی‌سخت‌گیرانه به نظر برسد، حتی اگر هدف مقاله، واقع‌گرایی باشد.

  • مستندسازی بیشتر می‌توانست مقاله را قوی‌تر کند در بخش‌هایی از مقاله به نقل از مصاحبه‌ها یا برنامه‌های رسانه‌ای داخلی اشاره شده، که بهتر بود دقیق ‌تر مستند شوند (با تاریخ، نام برنامه، نقل قول دقیق‌تر).
  • جمع‌بندی:

این مقاله یک دعوت صریح به واقع‌گرایی علمی ‌و سیاست‌گذاری مبتنی بر مرزهای فناوری است. نگاه منصفانه‌اش به قابلیت‌ها و ضعف‌های هوش مصنوعی، آن را به متنی وزین، آموزنده و به‌روز برای مخاطبانی در سطوح سیاست‌گذاری، دانشگاهی، و حتی علاقه‌مندان عمومی‌تبدیل می‌کند‌!»            

[پایان «دیگرپاسخِ» چت‌بات، (به مقالۀ مرزها و محدودیت‌های فناوری هوش مصنوعی)]

 

  • نتیجه گیری

دلیل دریافت این دو پاسخ متضاد از یک چت‌بات را باید در بافتار سوال‌ها، نهفته دانست. یکی پرسیده: « آیا نظری انتقادی نسبت به این [مقاله] داری؟» و دیگری سوال کرده: «نظرت راجع به این مقاله چیست؟»

هردو جمله، داوری چت‌بات را در خصوص مطلبی واحد درخواست می‌کنند. مضمون پرامپت اول، پرسش از نظر انتقادی و مضمون پرامپت دوم، نظرخواهی است.

دو پرامپت مذکور هر اندازه برای ما انسان‌ها، مترادف باشند، برای چت‌بات، متفاوت هستند، آن هم از لحاظ متعدد.

 

  • مهندسان پرامپتینگ تفاوت شناسی را به چت‌بات می‌آموزند!

آنها به چت‌بات می‌آموزند که:

  • درکintention  یا نیت کاربر یکی از مهم‌ترین وظایف توست! [البته درک نیت اصلی کاربر به تمام و کمال، برای خود مهندسان پرامپتینگ محال است، با این وجود، مهندس پرامپتینگ می‌کوشد، این فرآیند را با استفاده از فناوری‌های پردازش زبان طبیعی (NLP) و یادگیری ماشین تا حدودی درک کرده و درک خود را در چند گام کلیدی به چت‌بات منتقل کند؛ آن هم در چند گام کلیدی:
  1. پرسش کاربر را دریافت کن و به تجزیه آن بپرداز!
  2. ابتدا متن یا صدای ورودی کاربر را دریافت و آن را به واحدهای کوچکتر زبانی (کلمات و جملات یا به اصطلاح «توکن») تقسیم کن تا بتوانی ساختار جمله کاربر را تحلیل کنی.
  3. برای تحلیل نحوی و معنایی، ساختار جمله (کارکرد کلمات) و معنای آن را بررسی کن! آنوقت به کمک تحلیل معنایی، هستار‌ها (entities) مانند نام‌ها، مکان‌ها یا اشیاء را شناسایی و روابط بین آن‌ها را استخراج کن! برای مثال: اگر کاربر بنویسد یا بگوید: «می‌خواهم یک کتاب سفارش دهم»، نیت او «سفارش» است و «کتاب» یک هستار (entity) محسوب می‌‌شود.
  4. پیام کاربر را در دسته‌بندی‌های از پیش تعریف‌شده در مدل‌ یادگیری ماشین، قرار بده! تا نیت او را به ‌درستی تشخیص بدهی.
  5. پاسخ مناسب را بر اساس نیت و هستارها از طریق پایگاه داده یا با تولید متن جدید انجام بده! اگر نیت کاربر مبهم باشد، سوالات تکمیلی بپرس! یا گزینه‌هایی برای انتخاب ارائه کن.

 

مهندسان پرامپتینگِ چت‌بات‌ها با تحلیل بازخورد کاربران و تعاملات قبلی، مدل‌های زبانی را بهبود می‌دهند.

درنتیجه: چت‌بات در تشخیص نیت و پاسخ‌دهی دقیق‌تر می‌‌شود، آن هم از طریقِ:

  • شناسایی موتیف‌ها و مضامین: هوش مصنوعی در یافتن واژگان، عبارات، نمادها یا مفاهیم تکرارشونده در حجم عظیمی ‌از متون (حتی در سطح یک پیکره‌ زبانی کامل) با سرعت و دقتی فراتر از توان انسان، بسیار قوی است.
  • تحلیل سبک‌شناسی و نویسندگی: چت‌بات می‌تواند با بررسی سبک نگارش (طول جملات، واژگان و الگوهای نحوی) نویسنده احتمالی، تأثیرات ادبی یا تحول سبکی را شناسایی کند.
  • تحلیل ساختاری: چت‌بات قابلیت ترسیم ساختار پیرنگ، شبکه روابط شخصیت‌ها یا جدول زمانی روایت را به‌صورت کارآمد دارد.
  • بررسی بینامتنیّت (Intertextuality): چت‌بات توانایی شناسایی ارجاعات، اشارات یا شباهت‌ها به آثار دیگر را با استفاده از پایگاه داده‌‌ای گسترده دارد.
  • خلاصه‌سازی و ترکیب اطلاعات : چت‌بات می‌تواند پیرنگ داستان‌ها، استدلال‌ها یا مقالات انتقادی پیچیده را به‌سرعت خلاصه کند و به این ترتیب، توان ترکیب اطلاعات از منابع گوناگون (مانند زمینه تاریخی، جزئیات زندگی‌‌نامه‌ای، دیدگاه‌های مختلف انتقادی) را دارد.

اما چت‌بات در انجام این امور محدودیت‌ها و ضعف‌های جدی دارد:

۱.  فقدان درک واقعی و آگاهی: هوش مصنوعی مفاهیم را در ابعاد معنای انسانی آنها درک نمی‌کند. آنچه انجام می‌دهد تحلیل آماری زبان بر اساس الگوهای موجود در داده‌‌های آموزشی است. لذا چت‌بات فاقد تجربه زیسته، عمق عاطفی و آگاهی ‌ای است که برای درک کامل معنای انسانی یک متن ضروری ‌اند.

۲.  ناتوانی در درک ظرافت، ایهام و لایه‌های پنهان: هوش مصنوعی در مواجهه با طعنه، کنایه، طنز، استعاره‌های پیچیده، و ایهام که مفاهیم را غنی می‌کند، دچار مشکل جدی است. لذا چت‌بات اغلب تفسیرهایی سطحی یا تحت‌ لفظی ارائه می‌کند.

۳.  نداشتن تجربه ذهنی یا همدلی: نقد مقاله اغلب شامل پیوند دادن متن با وضعیت انسانی شامل احساسات، اخلاق، روان‌شناسی و تاریخ است. هوش مصنوعی فاقد تجربه شخصی، همدلی واقعی با شخصیت‌ها یا توانایی حس کردن بار احساسی متن مورد نظر است. لذا تحلیل‌های چت‌بات آماری هستند، نه احساسی/معرفتی.

۴.  نبود بینش اصیل و قضاوت انتقادی: هوش مصنوعی در ترکیب و بازتاب ایده‌های موجود در داده‌های آموزشی بسیار قوی است، اما برای تولید تفسیرهای واقعاً اصیل، بدیع یا صدور قضاوت‌های ارزشی ظریف درباره زیبایی‌شناسی، اخلاق یا فلسفه یک اثر دچار ضعف جدی است. درنتیجه: استدلال‌های چت‌بات نیز غالباً تقلیدی هستند.

۵.  نقاط کور زمینه‌‌ای/بافتاری: چت‌بات هرچند می‌تواند اطلاعات زمینه‌‌ای/بافتاری/تاریخی را بازیابی کند، اما در ادغام عمیق روح زمانه و بار فرهنگی، سیاسی یا فلسفی در تحلیل‌هایش ناتوان است و لذا غالباً ناتوان از درک این ست که چگونه یک متن با زمینه‌ و بافتارش درگیر می‌شود یا آن را بازنمایی می‌کند.

۶.  تقویت سوگیری‌ها: مدل‌های هوش مصنوعی سوگیری‌های موجود در داده‌های آموزشی را به ارث می‌برند و ممکن است آن‌ها را حتی تقویت هم بکنند. این امر می‌تواند به تحلیل‌هایی منجر شود که تکراری، جانب‌دارانه یا تحکیم‌کننده ساختارهای قدرت حاکم هستند.

و در نهایت اینکه هوش مصنوعی جایگزین، تعقل و تفکر انسانی نیست زیرا اساساً فاقد آگاهی، تجربه زیسته، هوش عاطفی، توانایی قضاوتِ با فتوت و قدرت تولید بینش‌های اصیل است.

با این وچود، چت‌بات بهترین مشاور و همکار انسان است: در صورتی که انسان، به تصمیم و قضاوت نهایی خود تکیه ‌کند. (منبع:عصرارتباط)

  • ۰۴/۰۳/۲۸

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">