ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

از ChatGPT استفاده کنیم یا نه؟

| يكشنبه, ۲۷ فروردين ۱۴۰۲، ۰۲:۰۵ ب.ظ | ۰ نظر

عباس پورخصالیان - اظهار نظر دربارۀ معایب و مزایای چَتباتِ ChatGPT (که روبات گفتگوکنندۀ برخط با کاربران است) پنج ماه است که موضوع روز و دستور کار شوراها و کمیسیون‌های سیاست گذاری در اتحادیۀ اروپا است، و از

12 فروردین 1402 یعنی از هنگامی‌که مرجع مقررات‌گذاری ملی ارتباطات ایتالیا به تبعیت از حزب حاکم در دولت ائتلافیِ خانم جورجا ملونی اقدام به مسدودسازی چَتباتِ ChatGPT کرد، موضوع داغ ژورنالیسم کشورهای مختلف نیز شده است. 
حالا نگرانی من این است که نکند مراکز پژوهش مجلس و شورای نگهبان در ج.ا از اقدام حزب پوپولیستی و ایزُلاسیونیستیِ ایتالیا مدل‌برداری کنند و «شاک» و «شعام» را تشویق به بستن راه‌های دسترسی اینترنتی کاربران مقیم ایران به همۀ انواع چتبات‌های هوشمند کنند، هرچند که «رموز مصلحت مُلک، خسروان دانند.»
دلیل مرجع مقررات‌گذاری ملی و حفاظت از داده‌های ایتالیا [که از سوی "حزب اِخوان" به رهبری خانم "جورجا ملونی" نصب شده] برای مسدودسازی چَتباتِ ChatGPT، ناسازگاری آن با «قوانین حفاظت از داده‌ها و مقررات محافظت از جوانان» عنوان شده است؛ (وصله‌ای که پیش و بیش از هر چیز به گوشی تلفن همراه و هزاران سوژۀ در فضای سایبری می‌توان زد!) البته برخی از وزرای شاغل در همین دولت ائتلافی و شماری از نخبگان صنعت در ایتالیا، علناً مخالفت خود با این مسدودسازی را ابراز کرده‌اند. (نگاه کنید به variety.com/2023/digital/global/italy-ban-chatgpt-controversy-silicon-valley-1235571506/)
خبر مذکور برای کسی که اوضاع کنونی دولت ایتالیا را دنبال می‌کند غافلگیرکننده نیست. لذا وقتی که آن خبر را در روز اول آوریل 2023 شنیدم، احساس کردم، نمونه‌ای تمام عیار از یک خبر دروغ آوریل [April Fool’s News  یا April Fool’s Joke ]  است. اما این خبر، جعلی نبود و فیک نیست! بلکه واقعیتی عاری از حقیقت است! زیرا (و این نکته را کمترکسی در جهان، بخوبی ایرانیان درک می‌کند که) مسدودسازی دسترسی به یک پلتفرم قوی و پُرجاذبه به بهانۀ رعایت قوانین حفاظت از داده‌ها و مقررات محافظت از جوانان، اقدامی‌ کم اثر تا بی‌اثر در رفتار کاربران است و یا برعکس نتیجه می‌دهد و ولع عمومی‌ برای دسترسی به هر قیمت را دامن می‌زند. 
اما مخالفان چَتباتِ ChatGPT تنها سیاسیون راستگرا نیستند، بلکه مدیران بزرگترین شرکت‌های رقیب مایکروسافت را نیز می‌توان در طیف مخالفان چَتباتِ ChatGPT در جبهۀ «منتقدان مشروط» یافت:
-    تعدادی از مدیران تراز اول فرافناوری در سیلیکان ولی و در رأسِ همۀ آنها: ایلان ماسک، در اوایل بهار سال 1402 خورشیدی نامۀ سرگشاده‌ای را امضا و رسانه‌ای کردند که نویسنده یا نویسندگانش از فحاشی علیه ChatGPT ابا نکرده،ChatGPT  را "قاتل" نامیده و از مقامات مسؤول، تحریم و توقف شش ماهۀ دسترسی به چتباتِ ChatGPT را درخواست کرده بودند تا در این مهلت شش ماهه چه بشود؟ - تا این که حقوقدانان و قانون‌گذاران محترم بجنبند و برای مقرراتی کردن همۀ انواع چتبات‌های هوش مصنوعی فرصت کافی به دست آورند و اقدام کنند. (نک به: japantimes.co.jp/opinion/2023/04/03/commentary/world-commentary/chatgpt-ai-dangers/ ، همچنین نگاه کنید به این خبر:
cnbc.com/amp/2023/03/29/elon-musk-other-tech-leaders-pause-training-ai-beyond-gpt-4.html) 


سیاستمدار پیر، نوآم چامسکی نیز ChatGPT را به درستی:
-     "اساساً سرقت ادبی فرافن" «Basically High-Tech Plagiarism» به حساب می‌آورد؛
-     استفاده از آن را "راهی برای اجتناب از یادگیری" « a Way of Avoiding Learning» ارزیابی می‌کند! [openculture.com/2023/02/noam-chomsky-on-chatgpt.html] 
-    و آن را False Promise و وعدۀ دروغینِ فناوران هوش مصنوعی می‌داند! 

•    ELIZA؛ آلت قتاله آری، قاتل نه!
به ظاهر، دلیل قاتل شمردن ChatGPT از سوی امضاکنندگان نامۀ سرگشادۀ ایلان ماسک و دیگران، انتشار برخی خبرهای ناگوار مثل خبر زیر است:
-    کاربَری بلژیکی که از ELIZA (یک نوع چَتبات هوش مصنوعی شبیه به OpenAI) برای درک عواقب گرمایش زمین استفاده می‌کرد، از پاسخ‌های آن چتبات چنان برآشفته و هراسناک شد که سرانجام اقدام به خودکُشی کرد. اکنون همسر وی، چَتباتِ ELIZA را قاتل شوهرش می‌داند (نگاه کنید به: belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges)

 

•    پیش‌فرض‌های استفاده بهینه از چتبات‌های هوشمند
پنج نکتۀ بدیهی، پیش‌فرض برای استفادۀ بهینه از ChatGPT هستند: 
-    پیش‌فرض نخست: «ChatGPT  از جنس ابزار است!» و ابزار حتا اگر به صورت آلت قتاله استفاده شود، فاقد عاملیت است، زیرا فاقد اراده و قصد و خِرَد است! کسانی که چتبات ChatGPT را علت خودکشی می‌پندارند، فرق حقوقی میان علت و سبب را در نظر نمی‌گیرند.
-    پیش‌فرض دوم: «ChatGPT  موتورِ دیالوگِ منطقی ماشین با انسان ممکن است». ChatGPT بعنوان موتور دیالوگ، ممکن است عملکردی کاملاً بدون ایراد داشته باشد اما متن پاسخ‌های چتبات ChatGPT به هر پرسشی، بدون شک آمیزه و گزیده‌ای از پیش-آموخته‌ها و پیش-اندوخته‌های یک ماشین یادگیری بزرگ است و در نهایت: از کوزه همان تراود که در اوست! 
مجموعۀ این پیش-آموخته‌ها و پیش-اندوخته‌ها برگرفته از میلیون‌ها متن ساخت-یافته و ساخت-نایافتۀ علمی ‌و غیر علمی ‌و آمیزۀ رنگارنگی از مطالب قدیمی ‌و نه چندان جدیدِ درست و نیمه درست و نادرست و رطب و یابس است که از فضای سایبری گردآوری و قبلاً به ماشین یادگیری ChatGPT خورانده شده است! 
-    پیش‌فرض سوم: کاربست عمومی‌چَتبات ChatGPT در هرصورت باید بمنظور استفادۀ درست در هر حوزه‌ای از سوی متولیان همان حوزه، مقرراتی و قانونی شود!
-    پیش‌فرض چهارم: ترویج یک نوآوری، معمولاً مقدم، و واکنش حقوق‌دانان و قانون‌گذاران نسبت به ضرورت مقرراتی کردن آن نوآوری، اغلب متأخر است. 
-    پیش‌فرض پنجم: معمولاً در مناسبات بازار و از منظر رقبا، «غاز رقیبی که سبقت گرفته و پیش افتاده، مرغ است!» 
وقتی که چَتباتِChatGPT  توسط شرکت OpenAI به بازار عرضه شد و مایکروسافت آن را به خدمت گرفت، می‌توان شدت غافلگیر شدن زاکربرگ، ایلان ماسک و ساندرا پیچایی (به ترتیب، مدیران ارشد شرکت مِتا، توئیتر و آلفابت) را در نوامبر سال گذشته تصور کرد. 
البته ساندرا پیچایی، اخیراً در برابر ChatGPT موضعی دوپهلو و دوسوگرایانه (ambivalent) اختیار کرده است. او می‌گوید: هوش مصنوعی حوزه‌ای بسیار مهم است که نمی‌توان آن را به صورت کامل مقررات‌گذاری و نظارت کرد، اما می‌توانیم به سادگی قوانین موجود در زمینۀ حفاظت داده‌ها را در مورد چتبات‌های هوش مصنوعی اِعمال کنیم، مانند مقررات حفظ حریم خصوصی و مقررات مرتبط با مراقبت‌های بهداشتی، تا روزی در آینده شرایط برای ایجاد قوانین جدید به منظور مقابله با "هوش مصنوعی مخرب" فراهم شود.
پیچایی روز اول فروردین 1402 خورشیدی، تازه "پیش نمونۀ" چتبات شرکت آلفابت را (به نام Bard) عرضۀ اولیه کرد، یعنی نه برای استفادۀ عموم بلکه برای استفادۀ خاص توسط تعدادی از کارشناسان معتمد تنها در ایالات متحده و انگلستان که موظفند، پیش از عرضۀ عمومی ‌نمونۀ بازاریِ  Bard، از آن ایرادزدایی کنند! 
اینکه چه زمانی Bard قابل عرضۀ عمومی ‌و برای بهره برداری کاربران جهانی آماده می‌شود، هنوز معلوم نیست. هروقت هم که Bard روانۀ بازار شد، بدانید و مطمئن باشید که مصداق "هوش مصنوعی مخرب" نیست! این درحالیست که تا آوریل 2023 حد اقل پنج ماه است که ChatGPT از سوی بیش از یک میلیون کاربر در سراسر جهان مورد استفادۀ مکرر قرار گرفته و به سرعت بر تعداد کاربرانش افزوده می‌شود.

 

* پیش‌فرض‌های بیشتر برای استفادۀ از چتبات‌ها
1.    چتبات‌ها کامل و بی عیب و نقص نیستند!   
ایراد پیش پا افتادۀ نسخۀ کنونی ChatGPT این است که ChatGPT هنوز جمع و تفریق بلد نیست!
یکی از کاربران ChatGPT  گزارش کرده است که از ChatGPT خواسته، نتیجۀ محاسبۀ عبارتِ « 45 + 68–12.4 + 1 + 0.6» را بیان کند. ChatGPT نیز پاسخ داده است: می‌شود  90.4 ! 
نیازی به گفتن نیست که پاسخِ ChatGPT  اشتباه است (و درستش «یکصدودو و دودهم» "102.2" است) اما چگونه ChatGPT مرتکب این خطا شده است؟ دلیل آن احتمالاً این است: هنوز به ChatGPT تفریق عدد اعشاری یاد نداده‌اند! یا یاد داده‌اند و سیستم‌های تکرار مجدد و خودآموزی ماشین یادگیری را در حوزۀ تفریق اعشاری به قدر کافی فعال نکرده‌اند.
2.    چتبات، مُبَیِّن نظریۀ مرگ مؤلف است!
برونداد چتبات، فاقد ارجاعات کتاب شناختی و ناقض قوانین حقوق مؤلف است.
3.    چتبات، مؤید هوش طوطی‌وار است!
"هوش مصنوعی" نامی ‌بی‌مسما است و درستش «هوش طوطی‌وار» است، زیرا ماشین‌های هوشمند، مطالبی را طوطی‌وار یاد می‌گیرند و فقط آنچه را که از پیش آموخته‌اند پردازش و ارایه می‌کنند!    
4.    چتبات، فاقد آگاهی از دانش روز و رویدادهای ایام اخیر و «اکنون» است!
سرورهای چتبات، به سرورهای وقایع اتفاقیۀ برخط متصل نیستند. آنچه در گذشته آموخته‌اند، همان را پردازش و ارایه می‌کند. 
5.    برونداد چتبات، یکسره "بینامتنی" (Intertextual) است!
پاسخ چتبات، هربار آمیزه‌ای بی‌نظیر از اشارۀ غیر مستقیم به بریده‌هایی از متنی نوشته شده در دورۀ تاریخی نامعلوم، گرته‌برداری شده از باورها و اعتقاداتی نامشخص و تقلید از مؤلفانی نامعین به سبکی مجهول است. 
6.    برونداد چتبات، حُمقا را احمق‌تر و عقلا را عاقل‌تر می‌کند! 
اصل اساسی، طرح پرسش درست فرموله شده است! کاری بس دشوار که تنها از پس عدۀ کمی ‌از کارشناسان زبده بر می‌آید.  
7.    استفادۀ درست از چتبات، بارورسازِ خلاقیت است!
در یونان باستان، فِدروس (Phaedrus) در مناظره با سقراط، قلم و کاغذ را متهم می‌کرد به این که اختراع آنها خلاقیت انسان را کُشته، زیرا باعث انتقال ناقص تجربیات شخصی و تعمیم اغلب نادرست دانش فرد نویسنده در ذهن خوانندگان شده. 
اکنون پس از گذشت 2400 سال از تحریر کتاب  Phaedrus توسط افلاطون، بعضی‌ها همان برداشت را از نوآوری چتبات‌های هوشمند دارند!  
8.    برونداد دیالوگ انسان با چَتبات، نیاز به تأمل دارد!
لیکن شما به کمک چَتبات هوشمند می‌توانید: 
-    از آن بعنوان دبیر شخصی و مشاور برای کمک به پیشبرد سریع ایده‌های خود استفاده کنید و پس از طرح پرسش و دریافت پاسخ، با مرور دقیق پاسخ، جریان‌های اصلی در بازار را دریابید و ترندهای فرافن را پیدا کنید! 
ایده‌های خود را در معرض "طوفان فکرِیِ" ماشین یادگیری قرار دهید! از این طریق برنامه‌ای را تکمیل و راه‌ حل‌های مختلفی را برای مسألۀ خود پیدا کنید! خلاصۀ مدیریتی مقالۀ خود را دریافت کنید! تحریر مکتوبات مورد نظرتان را به هر زبانی به چتبات هوشمند محول کنید!
اما بدون تأمل شخصی یا ویرایش فنی و تخصصیِ پاسخ چتبات توسط کارشناس مربوط، هرگز به چتبات اعتماد نکنید! (منبع:عصرارتباط)

  • ۰۲/۰۱/۲۷

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">