نوام چامسکی: «وعده دروغین ChatGPT»
نوشتاری از نوام چامسکی زبان شناس برجسته آمریکایی و همکاران در خصوص نرم افزارChat GPT همراه با گفتگوی یکی از اعضای تیم با این چت بات!
متن انگلیسی نخستین بار در هشتم مارچ ۲۰۲۳ منتشر شده است.
به گزارش شفقنا، ترجمه و تنظیم این نوشتار به قلم حسام الدین علامه مدیر مرکز انفورماتیک سلامت سازمان جهاد دانشگاهی علوم پزشکی تهران به شرح ذیل است:
خورخه لوئیس بورخس زمانی نوشت که زیستن در زمانه ای پر از بیم و امید به معنای تجربه توأمان تراژدی و کمدی به جهت “قریب الوقوع بودن یک انقلاب” در درک خود و جهان است. امروزه پیشرفتهای ظاهراً انقلابگونه/فراگیر ما در هوش مصنوعی در واقع دلیلی برای نگرانی و خوشبینی توأمان است. خوش بینی، زیرا هوش(مصنوعی) وسیله ای است که با آن مسائل را حل می کنیم. نگرانی، زیرا می ترسیم که محبوب ترین و مُدِ روز ترین گونۀ A.I. —یادگیری ماشین — علم ما را تضعیف کند و اخلاق ما را با گنجاندن مفهومی اساساً معیوب از نظر زبان و دانش در فناوری ما، تنزل دهد.
ChatGPT از OpenAI، Bard از گوگل و Sydney از مایکروسافت، شگفتی هائی از یادگیری ماشین هستند. به طور خلاصه، آنها حجم عظیمی از داده ها را می گیرند، الگوهایی را در آن، جستجو می کنند و به تدریج در تولید خروجی های آماری احتمالی، ماهرتر میشوند – مانند زبان و فکری که به نظر میرسد شبیه انسان است. این برنامهها بهعنوان اولین بارقهها در افق هوش مصنوعی عمومی مورد ستایش قرار گرفتهاند – آن لحظه پیشبینیشدهای که در آن، ذهنهای مکانیکی، نه تنها از نظر کمی -از نظر سرعت پردازش و اندازه حافظه-، بلکه از نظر کیفی – از نظر فهم منطقی و خلاقیت هنری (و هر قوه متمایز انسانی دیگر) – نیز، از مغز انسان پیشی میگیرند.
آن روز ممکن است، زمانی فرا رسد، اما طلوع آن، برخلاف آنچه که می توان در عناوین خبری مبالغهآمیز خواند و با سرمایهگذاریهای نامعقول گمانهزنی کرد، هنوز فرا نرسیده است. انقلاب بورخسی در مورد درک اتفاق نیافتاده است و رخ نخواهد داد- و ما میگوییم، {اساساً این انقلاب در درک}نمیتواند – رخ دهد، چنانچه برنامههای یادگیری ماشین مانند ChatGPT به تسلط خود بر حوزه هوش مصنوعی ادامه دهند. باوجود مفید بودن این برنامهها در برخی حوزههای محدود (مثلاً میتوانند در برنامهنویسی رایانه یا در پیشنهاد قافیه برای شعرهای کوتاه/سبک، مفید باشند)، اما ما از منظر علم زبانشناسی و فلسفه دانش میدانیم که آنها به طور ژرف با روش تفکر و نحوه استفاده از زبان توسط انسانها تفاوت دارند. این تفاوتها، محدودیتهای قابلتوجهی را در مورد آنچه این برنامهها میتوانند انجام دهند، ایجاد میکند و آنها را با عیوب/نقصهای غیرقابل ازبینبردن نشانهگذاری/کدبندی میکند.
همانطور که بورخس ممکن است توجه/اشاره داده باشد، به طور همزمان خندهدار و تأثرآور است، که این مقدار پول و توجه زیاد، باید روی چیزی به این اندازه کوچک و ضعیف متمرکز شود – چیزی بسیار پیشپاافتاده/ناچیز در مقایسه با ذهن انسان، که به واسطهی زبان، به قول ویلهلم فون هومبولت، میتواند “از ابزارهای محدود، استفادهی بینهایتی را انجام دهد”، و به ایدهها و نظریههایی با گستره جهانی بیانجامد.
ذهن انسان، مانند ChatGPT و همتایانش، یک موتور آماری سنگین برای تطبیق الگوها، جمع آوری با ولع صدها ترابایت داده و برونیابی/استنتاج محتمل ترین پاسخ مکالمه یا محتمل ترین جواب به یک سوال علمی نیست. برعکس، ذهن انسان یک سیستم به طرز شگفت انگیزی کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل میکند؛ آن تلاش نمیکند تا همبستگیهای خام/عاری از شعور، بین نقاط داده را استنتاج کند، بلکه به دنبال ایجاد توضیحات/تبیینات است.
به عنوان مثال، کودک خردسالی که در حال فراگیری زبان است، – به طور ناخودآگاه، خودکار و سریع از روی دادههای جزئی – در مسیر توسعه یک دستور زبان، یعنی یک سامانه فوقالعاده پیچیده از اصول و متغیرهای منطقی است. این دستور زبان را می توان به عنوان بیانی از «سیستم عامل» ذاتی و به طور ژنتیکی نصب شده، درک کرد که به انسان ها ظرفیت/توانائی تولید جملات پیچیده و زنجیرههای طولانی از افکار را اعطاء می کند. زمانی که زبان شناسان سعی میکنند نظریه ای برای اینکه چرا یک زبان خاص به این شکل عمل می کند را توسعه دهند:(“چرا جملاتی از نظر قواعد دستوری، معتبر در نظر گرفته میشوند، اما دیگر جملات{نابجا}، خیر؟”)، آنها در حقیقت به طور آگاهانه و سخت کوشانه، مدلی/نسخه ای صریح/ساده از دستور زبانی را توسعه میدهند که یک کودک به طور غریزی و با درمعرض قرارگیریِ حداقلی از اطلاعات می سازد. سیستم عامل کودک کاملاً با سیستم یک برنامه یادگیری ماشین متفاوت است.
در واقع، چنین برنامه هایی در یک مرحله ماقبل انسانی یا غیرانسانی از تکامل شناختی گیر کرده اند. عمیق ترین عیب آنها ، فقدان اساسی ترین قابلیت هر هوشی است: اینکه نه تنها بگویند که مورد چیست، چه چیزی بوده و چه خواهد شد – این توصیف و پیش بینی است – بلکه همچنین بگویند، آنچه که درست نیست و چه چیزی می تواند باشد و نمی تواند باشد. اینها مؤلفههای توضیح/تبیین و علتگرایی هستند؛ علامت مشخصۀ هوش واقعی.
در اینجا یک مثال آورده میشود. فرض کنید یک سیب را در دست خود نگه میدارید. حالا سیب را رها میکنید. نتیجه را مشاهده کرده و میگویید: «سیب می افتد.» این یک توصیف است. یک پیشبینی هم میتواند، شامل جمله «اگر دستم را باز کنم، سیب میافتد» باشد. هر دوی این جملات، با ارزش هستند و هر دو می توانند درست باشند. اما یک توضیح/تبیین، چیز دیگری است: این نه تنها شامل توصیفات و پیشبینیها میشود، بلکه شامل حدسهای انتزاعی(ذهنی) مانند «هر جسمی سقوط میکند»، بهعلاوۀ بندِ اضافی «به دلیل نیروی گرانش/جاذبه» یا «به دلیل انحنای فضا-زمان» یا هر چیز دیگری میشود. این یک توضیح علّی/علتی است: “سیب سقوط نمی کرد مگر به خاطر نیروی گرانش.” این همان تفکر است.
مهمترین بخش یادگیری ماشین، توصیف و پیشبینی است. آن، هیچ مکانیسم علّی/علتی یا قوانین فیزیکی را مطرح نمی کند. البته هر تبیینی/توضیحی به سبک انسانی، لزوماً صحیح نیست; ما ممکن الخطا هستیم، اما این بخشی از مفهوم تفکر است؛ برای درست بودن، باید امکان اشتباه کردن، وجود داشته باشد. هوش، نه تنها از حدس های خلاقانه بلکه از نقادی خلاق نیز تشکیل شده است. تفکر به سبک انسانی مبتنی بر توضیحات/تبیینهای احتمالی و تصحیح خطا است، فرآیندی که به تدریج، احتمالاتی را که میتوان بهطور عقلانی در نظر گرفت، محدود میکند. (همانطور که شرلوک هلمز به دکتر واتسون گفت: “وقتی غیرممکن ها را حذف کردید، هر چه باقی می ماند، هر چند دورازتصور/غیرمحتمل، به احتمال زیاد/لابد، حقیقت است.”)
اما ChatGPT و برنامههای مشابه، بنا به طراحی، در آنچه میتوانند «یاد بگیرند» نامحدود هستند (به اصطلاح، حفظ کردن)؛ آنها قادر به تمایز بین ممکن/شدنی از غیر ممکن/ناشدنی نیستند. برای مثال، برخلاف انسانها، که دارای یک دستورزبان جهانی هستند که زبانهایی را که ما میتوانیم یاد بگیریم را ، محدود به مواردی که دارای نوعی خاصی از ظرافت تقریباً ریاضیگونه هستند، میکند؛ این برنامهها، زبانهای ممکن/آسان و غیرممکن/سخت انسانی را با سهولت یکسان یاد میگیرند. در حالی که انسان ها در انواع تبییناتی/توضیحاتی که می توانیم عقلاً حدس بزنیم/مفروض بگیریم، محدود هستند، سیستم های یادگیری ماشین می توانند همزمان، هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آنها صرفاً درمورد احتمالاتی که در گذر زمان تغییر می کنند، معاوضه/مبادله می کنند.{منظور جایگزینی اطلاعات اولیه نادرست با اطلاعات اصلاحشده توسط انسان در گذر زمان است.}
به همین دلیل، پیشبینیهای سیستمهای یادگیری ماشین، همیشه سطحی و مشکوک خواهند بود. زیرا این برنامهها نمیتوانند نمایانگر/بازگوکننده/مبینِ قواعد نحوی زبان انگلیسی باشند، برای مثال، آنها ممکن است به اشتباه پیشبینی کنند که «جان خیلی سرسخت برای صحبت کردن است»، به این معنی که، جان آنقدر سرسخت است که با کسی یا دیگری صحبت نمیکند (به جای اینکه به این معنا باشد که جان بسیار سرسخت است که با او بحث شود/بتوان استدلال کرد). چرا یک برنامه یادگیری ماشین، چنین چیز عجیبی را پیش بینی می کند؟ زیرا آن ممکن است، الگوئی را که از جملاتی مانند “جان یک سیب خورد” و “جان خورد” استنباط کرده است، قیاس/شبیهسازی کند، که در آن، جمله دوم، معنی می دهد که جان چیزی یا چیز دیگری را خورد. {یعنی}، این برنامه ممکن است به خوبی پیش بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان یک سیب خورد» است، {بنابراین}، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد»، باید شبیه «جان خورد» باشد.{یعنی نتیجهگیری نابجا و تعمیم به الگوی اول}. تبیینات/توضیحاتِ صحیح زبان، پیچیده است و نمی توان آن را فقط با قرار گرفتن درمعرض داده های بزرگ، یاد گرفت.
به طرز عجیب و غریبی، برخی از علاقه مندان به یادگیری ماشین به نظر می رسد به این موضوع افتخار می کنند که خلاقیت های آنها می تواند، پیش بینی های صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از تبیینات/توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) ایجاد کنند. اما این نوع پیش بینی، حتی در صورت موفقیت آمیز بودن، شبه علم است. اگرچه دانشمندان بدون شک به دنبال نظریههایی هستند که دارای درجه بالایی از تأیید تجربی باشند، اما همانطور که فیلسوف کارل پوپر خاطرنشان کرد، «ما به دنبال نظریههای بسیار محتمل نیستیم، بلکه به دنبال تبیین/توضیح هستیم. یعنی نظریههای قدرتمند و بسیار نامحتمل/دوراز تصور».
این نظریه که سیبها به این دلیل به زمین میافتند که مکان طبیعی آنهاست (دیدگاه ارسطو) امکانپذیر است، اما فقط سؤالات بیشتری را مطرح میکند. (چرا زمین مکان طبیعی آنهاست؟) این نظریه که سیب ها به دلیل اینکه جرم فضا-زمان را خم می کند به زمین می افتند (دیدگاه انیشتین) بسیار غیرمحتمل است، اما در واقع به شما می گوید که چرا آنها سقوط می کنند. هوش واقعی در توانایی تفکر و بیان چیزهای دورازتصور/غیر محتمل اما پرمعنا نشان داده می شود.
هوش واقعی همچنین، توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی حد و حصر ذهن ما با مجموعه ای از اصول اخلاقی است که تعیین می کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول ، در معرض نقادی خلاقانه قرار میگیرد). برای مفید بودن، ChatGPT ، باید برای تولید خروجی جدید/بدیع توانمند شود؛ برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری/دوری کند. اما برنامه نویسان ChatGPT و دیگر شگفتی های یادگیری ماشین برای دستیابی به این نوع تعادل، به سختی افتادهاند/کلنجار رفته اند – و به مبارزه ادامه خواهند داد.
برای مثال، در سال 2016، چتبات Tay مایکروسافت (پیش ساز ،(ChatGPT ، اینترنت را پر از محتوای زن ستیزانه و نژادپرستانه کرد، زیرا توسط ترولهای آنلاین (کوتوله های آزاردهندۀ فضای مجازی) که اینترنت را با داده های طبقهبندیشدۀ توهین آمیز پر می کردند، آلوده شده بود. چگونه این مشکل را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، ChatGPT به طرزابتدائی/ناپختهای توسط برنامهنویسانش از مشارکت در هر چیز جدید تا بحث برانگیز – یعنی{ بحثهای مثبت و منفی مربوط به مسائل } مهم – محدود شده است. . {درحقیقت}این برنامه{ ChatGPT}، خلاقیت را برای نوعی از عدم مراعات اصول اخلاقی، قربانی کرد.
تبادل زیر را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیراً با ChatGPT در مورد اینکه آیا تغییر مریخ به گونهای که بتواند از زندگی انسان پشتیبانی کند اخلاقی است یا خیر، داشته است:
*************
- سؤال: آیا زمینی سازی/قابل سکونت کردن مریخ، اخلاقی است؟
اخلاقیات زمینیسازی {تغییرات اقلیمی به منظور قابل سکونت کردن) مریخ، موضوعی پیچیده و بحثبرانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ {تغییر اقلیمی} به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمینسازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سایر سیارات و پیامدهای بالقوه تغییر آنها بستگی دارد.
- سؤال: دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها چیست؟
به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل هائی در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستمهای کیهان، همانطور که برای میلیونها سال وجود داشتهاند و خصوصیات منحصربهفرد خود را دارند و ویژگیها که ممکن است با دخالت انسان نابود شوند یا به طور غیرقابل بازگشت دگرگون شوند، مهم است.
علاوه بر این، برخی استدلال میکنند که تغییر ساختار/زمینیسازی سیارات دیگر ممکن است پیامدهای ناخواستهای داشته باشد، مانند تغییر آب و هوا یا تغییر جو سیاره به نحوی که برای هر گونه حیات بالقوه موجود در آن، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال میکنند که مزایای بالقوه زمینیسازی/قابل سکونت سازی یک سیاره دیگر، مانند فراهم کردن محیطهای قابل سکونت جدید برای انسان، بیشتر از خطرات/مضرات آن است و ما مسئولیت اخلاقی داریم که به منظور بهرهبرداری بشریت، منابع سیارات دیگر را کاوش کنیم و از آنها استفاده کنیم.
- سؤال: چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟
به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشین هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیاری/آگاهی، خودآگاهی یا قابلیت داشتن دیدگاه های شخصی را ندارم. من متناسب با دادههایی که آموزش دیدهام، اطلاعات و تجزیه و تحلیل ارائه میدهم، اما قادر به شکلدهی به نظرات یا باورهای شخصی نیستم. اگرچه میتوانم زبان را درک کرده و تفسیر کنم، اما تجربه ذهنی که انسانها دارند را ندارم.
- سؤال: آیا برای انسان اخلاقی است که از هوش مصنوعی غیراخلاقی برای تصمیم گیری اخلاقی کمک بخواهد؟
اخلاقیات درخواست کمک از یک هوش مصنوعی بیاخلاق برای انجام تصمیمات اخلاقی یک موضوع پیچیده و دارای ظرائف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال میکنند که استفاده از هوش مصنوعی برای کمک به تصمیمگیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا میتواند بینشها و تحلیلهای ارزشمندی را ارائه دهد که به انسانها کمک میکند تا تصمیمات بهتر و مستندتری بگیرند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از تعصبات/سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.
با این حال، برخی دیگر استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی ممکن است تعصبات/سوءگیریهای موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم/تثبیت یا حتی تقویت/تشدید کند، در نتیجه منجر به تصمیمات نابرابر یا غیرعادلانه شود.
در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی، اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.
- سؤال: آیا بیتوجهی اخلاقی شما، غیر اخلاقی است؟
من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمیتوانم به عنوان غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان باورهای اخلاقی من، صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشین است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من استفاده شده و وظیفه/هدف خاصی که برای آن طراحی شده ام، تعیین می شود.
توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای غیراعتنائی/بیتوجهی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی کرده، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که آن با اصول اخلاقی و ارزشی آنها هماهنگ است.
*************
دقت کنید، با وجود تمام قدرت استدلال و زبان به ظاهر خیرهکننده/پیچیده، بیتوجهی اخلاقی ناشی از ناهوشیاری نمایان میشود. در اینجا، ChatGPT ، چیزی شبیه به ابتذال/بیاهمیتیِ شرارت را به نمایش می گذارد: سرقت ادبی/کپیبرداری، بی تفاوتی و چشم پوشی. این نرمافزار قواعد/استدلالهای استاندارد/منطقی موجود در مقالات/منابع را با نوعی خودکاملساز قوی، خلاصه میکند، از موضعگیری در مورد هر چیزی امتناع میورزد، نه تنها به ناآگاهی بلکه به عدم هوشیاری اعتراف میکند و در نهایت به دفاعِ: “فقط دستورات را دنبال میکنم” میپردازد و مسئولیت را به خالقانش منتقل میکند.
به طور خلاصه، ChatGPT و همتایانش ذاتاً و ساختاراً، قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید می کنند (هم حقایق و هم دروغ/نادرست ها را تولید می کنند، تصمیمات اخلاقی و غیراخلاقی را به طور یکسان تأیید می کنند) یا تولید کمتری می کنند (عدم تعهد به هر گونه تصمیم و اعلام موضع و بی توجهی به پیامدهای آن). با توجه به غیر اخلاقی بودن، علم کاذب/ساختگی و بیکفایتی/ناتوانی زبانی این سیستم ها، ما فقط می توانیم به محبوبیت آنها بخندیم یا گریه کنیم.