ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

نوام چامسکی: «وعده دروغین ChatGPT»

| شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

نوشتاری از نوام چامسکی زبان شناس برجسته آمریکایی و همکاران در خصوص نرم افزارChat GPT  همراه با گفتگوی یکی از اعضای تیم با این چت بات!

متن انگلیسی نخستین بار در هشتم مارچ ۲۰۲۳ منتشر شده است.

به گزارش شفقنا، ترجمه و تنظیم این نوشتار به قلم حسام الدین علامه مدیر مرکز انفورماتیک سلامت سازمان جهاد دانشگاهی علوم پزشکی تهران به شرح ذیل است:

خورخه لوئیس بورخس زمانی نوشت که زیستن در زمانه ای پر از بیم و امید به معنای تجربه توأمان تراژدی و کمدی به جهت “قریب الوقوع بودن یک انقلاب” در درک خود و جهان است. امروزه پیشرفت‌های ظاهراً انقلاب‌گونه/فراگیر ما در هوش مصنوعی در واقع دلیلی برای نگرانی و خوش‌بینی توأمان است. خوش بینی، زیرا هوش(مصنوعی) وسیله ای است که با آن مسائل را حل می کنیم. نگرانی، زیرا می ترسیم که محبوب ترین و مُدِ‌ روز‌ ترین گونۀ  A.I. —یادگیری ماشین — علم ما را تضعیف کند و اخلاق ما را با گنجاندن مفهومی اساساً معیوب از نظر زبان و دانش در فناوری ما، تنزل دهد.

ChatGPT از  OpenAI، Bard  از گوگل و Sydney از مایکروسافت، شگفتی هائی از یادگیری ماشین هستند. به طور خلاصه، آنها حجم عظیمی از داده ها را می گیرند، الگوهایی را در آن، جستجو می کنند و به تدریج در تولید خروجی های آماری احتمالی، ماهرتر می‌شوند – مانند زبان و فکری که به نظر می‌رسد شبیه انسان است. این برنامه‌ها به‌عنوان اولین بارقه‌ها در افق هوش مصنوعی عمومی مورد ستایش قرار گرفته‌اند – آن لحظه پیش‌بینی‌شده‌ای که در آن، ذهن‌های مکانیکی، نه تنها از نظر کمی -از نظر سرعت پردازش و اندازه حافظه-، بلکه از نظر کیفی – از نظر فهم منطقی و خلاقیت هنری (و هر قوه متمایز انسانی دیگر) – نیز، از مغز انسان پیشی می‌گیرند.

آن روز ممکن است، زمانی فرا رسد، اما طلوع آن، برخلاف آنچه که می توان در عناوین خبری مبالغه‌آمیز خواند و با سرمایه‌گذاری‌های نامعقول گمانه‌زنی کرد، هنوز فرا نرسیده است. انقلاب بورخسی در مورد درک اتفاق نیافتاده است و رخ نخواهد داد- و ما می‌گوییم، {اساساً این انقلاب در درک}نمی‌تواند – رخ دهد، چنانچه برنامه‌های یادگیری ماشین مانند ChatGPT به تسلط خود بر حوزه هوش مصنوعی ادامه دهند. باوجود مفید بودن این برنامه‌ها در برخی حوزه‌های محدود (مثلاً می‌توانند در برنامه‌نویسی رایانه یا در پیشنهاد قافیه برای شعرهای کوتاه/سبک، مفید باشند)، اما ما از منظر علم زبان‌شناسی و فلسفه دانش می‌دانیم که آن‌ها به طور ژرف با روش تفکر و نحوه استفاده از زبان توسط انسان‌ها تفاوت دارند. این تفاوت‌ها، محدودیت‌های قابل‌توجهی را در مورد آنچه این برنامه‌ها می‌توانند انجام دهند، ایجاد می‌کند و آنها را با عیوب/نقص‌های غیرقابل ازبین‌بردن نشانه‌گذاری/کدبندی می‌کند.

همانطور که بورخس ممکن است توجه/اشاره داده باشد، به طور همزمان خنده‌دار و تأثرآور است، که این مقدار پول و توجه زیاد، باید روی چیزی به این اندازه‌ کوچک و ضعیف متمرکز شود – چیزی بسیار پیش‌پاافتاده/ناچیز در مقایسه با ذهن انسان، که به واسطه‌ی زبان، به قول ویلهلم فون هومبولت، می‌تواند “از ابزارهای محدود، استفاده‌ی بی‌نهایتی را انجام دهد”، و به ایده‌ها و نظریه‌هایی با گستره جهانی بیانجامد.

ذهن انسان، مانند ChatGPT و همتایانش، یک موتور آماری سنگین برای تطبیق الگوها، جمع آوری با ولع صدها ترابایت داده و برون‌یابی/استنتاج محتمل ترین پاسخ مکالمه یا محتمل ترین جواب به یک سوال علمی نیست. برعکس، ذهن انسان یک سیستم به طرز شگفت انگیزی کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل می‌کند؛ آن تلاش نمی‌کند تا همبستگی‌های خام/عاری از شعور، بین نقاط داده را استنتاج کند، بلکه به دنبال ایجاد توضیحات/تبیینات است.

به عنوان مثال، کودک خردسالی که در حال فراگیری زبان است، – به طور ناخودآگاه، خودکار و سریع از روی داده‌های جزئی – در مسیر توسعه یک دستور زبان، یعنی یک سامانه فوق‌العاده پیچیده از اصول و متغیرهای منطقی است. این دستور زبان را می توان به عنوان بیانی از «سیستم عامل» ذاتی و به طور ژنتیکی نصب شده، درک کرد که به انسان ها ظرفیت/توانائی تولید جملات پیچیده و زنجیره‌های طولانی از افکار را اعطاء می کند. زمانی که زبان شناسان سعی می‌کنند نظریه ای برای اینکه چرا یک زبان خاص به این شکل عمل می کند را توسعه دهند:(“چرا جملاتی از نظر قواعد دستوری، معتبر در نظر گرفته می‌شوند، اما دیگر جملات{نابجا}، خیر؟”)، آن‌ها در حقیقت به طور آگاهانه و سخت کوشانه، مدلی/نسخه ای صریح/ساده از دستور زبانی را توسعه می‌دهند که یک کودک به طور غریزی و با درمعرض قرارگیریِ حداقلی از اطلاعات می سازد. سیستم عامل کودک کاملاً با سیستم یک برنامه یادگیری ماشین متفاوت است.

در واقع، چنین برنامه هایی در یک مرحله ماقبل انسانی یا غیرانسانی از تکامل شناختی گیر کرده اند. عمیق ترین عیب آنها ، فقدان اساسی ترین قابلیت هر هوشی است: اینکه نه تنها  بگویند که مورد چیست، چه چیزی بوده و چه خواهد شد – این توصیف و پیش بینی است – بلکه همچنین بگویند، آنچه که درست نیست و چه چیزی می تواند باشد و نمی تواند باشد. اینها مؤلفه‌های توضیح/تبیین و علت‌گرایی هستند؛ علامت مشخصۀ هوش واقعی.

در اینجا یک مثال آورده می‌شود. فرض کنید یک سیب را در دست خود نگه می‌دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده کرده و می‌گویید: «سیب می افتد.» این یک توصیف است. یک پیش‌بینی هم می‌تواند، شامل جمله «اگر دستم را باز کنم، سیب می‌افتد» باشد. هر دوی این جملات، با ارزش هستند و هر دو می توانند درست باشند. اما یک توضیح/تبیین، چیز دیگری است: این نه تنها شامل توصیفات و پیش‌بینی‌ها می‌شود، بلکه شامل حدس‌های انتزاعی(ذهنی) مانند «هر جسمی سقوط می‌کند»، به‌علاوۀ بندِ اضافی «به دلیل نیروی گرانش/جاذبه» یا «به دلیل انحنای فضا-زمان» یا هر چیز دیگری می‌شود. این یک توضیح علّی/علتی است: “سیب سقوط نمی کرد مگر به خاطر نیروی گرانش.” این همان تفکر است.

مهمترین بخش یادگیری ماشین، توصیف و پیش‌بینی است. آن، هیچ مکانیسم علّی/علتی یا قوانین فیزیکی را مطرح نمی کند. البته هر تبیینی/توضیحی به سبک انسانی، لزوماً صحیح نیست; ما ممکن الخطا هستیم، اما این بخشی از مفهوم تفکر است؛ برای درست بودن، باید امکان اشتباه کردن، وجود داشته باشد. هوش، نه تنها از حدس های خلاقانه بلکه از نقادی خلاق نیز تشکیل شده است. تفکر به سبک انسانی مبتنی بر توضیحات/تبیین‌های احتمالی و تصحیح خطا است، فرآیندی که به تدریج، احتمالاتی را که می‌توان به‌طور عقلانی در نظر گرفت، محدود می‌کند. (همانطور که شرلوک هلمز به دکتر واتسون گفت: “وقتی غیرممکن ها را حذف کردید، هر چه باقی می ماند، هر چند دورازتصور/غیرمحتمل، به احتمال زیاد/لابد، حقیقت است.”)

اما ChatGPT و برنامه‌های مشابه، بنا به طراحی، در آنچه می‌توانند «یاد بگیرند» نامحدود هستند (به اصطلاح، حفظ کردن)؛ آنها قادر به تمایز بین ممکن/شدنی از غیر ممکن/ناشدنی نیستند. برای مثال، برخلاف انسان‌ها، که دارای یک دستور‌زبان جهانی هستند که زبان‌هایی را که ما می‌توانیم یاد بگیریم را ، محدود به مواردی که دارای نوعی خاصی از ظرافت تقریباً ریاضی‌گونه هستند، می‌کند؛ این برنامه‌ها، زبان‌های ممکن/آسان و غیرممکن/سخت انسانی را با سهولت یکسان یاد می‌گیرند. در حالی که انسان ها در انواع تبییناتی/توضیحاتی که می توانیم عقلاً حدس بزنیم/مفروض بگیریم، محدود هستند، سیستم های یادگیری ماشین می توانند همزمان، هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آنها صرفاً درمورد احتمالاتی که در گذر زمان تغییر می کنند، معاوضه/مبادله می کنند.{منظور جایگزینی اطلاعات اولیه نادرست با اطلاعات اصلاح‌شده توسط انسان در گذر زمان است.}

به همین دلیل، پیش‌بینی‌های سیستم‌های یادگیری ماشین، همیشه سطحی و مشکوک خواهند بود. زیرا این برنامه‌ها نمی‌توانند نمایانگر/بازگوکننده/مبینِ قواعد نحوی زبان انگلیسی باشند، برای مثال، آنها ممکن است به اشتباه پیش‌بینی کنند که «جان خیلی سرسخت برای صحبت کردن است»، به این معنی که، جان آنقدر سرسخت است که با کسی یا دیگری صحبت نمی‌کند (به جای اینکه به این معنا باشد که جان بسیار سرسخت است که با او بحث شود/بتوان استدلال کرد). چرا یک برنامه یادگیری ماشین، چنین چیز عجیبی را پیش بینی می کند؟ زیرا آن ممکن است، الگوئی را که از جملاتی مانند “جان یک سیب خورد” و “جان خورد” استنباط کرده است، قیاس/شبیه‌سازی کند، که در آن، جمله دوم، معنی می دهد که جان چیزی یا چیز دیگری را خورد. {یعنی}، این برنامه ممکن است به خوبی پیش بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان یک سیب خورد» است، {بنابراین}، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد»، باید شبیه «جان خورد» باشد.{یعنی نتیجه‌گیری نابجا و تعمیم به الگوی اول}. تبیینات/توضیحاتِ صحیح زبان، پیچیده است و نمی توان آن را فقط با قرار گرفتن درمعرض داده های بزرگ، یاد گرفت.

به طرز عجیب و غریبی، برخی از علاقه مندان به یادگیری ماشین به نظر می رسد به این موضوع افتخار می کنند که خلاقیت های آنها می تواند، پیش بینی های صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از تبیینات/توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) ایجاد کنند. اما این نوع پیش بینی، حتی در صورت موفقیت آمیز بودن، شبه علم است. اگرچه دانشمندان بدون شک به دنبال نظریه‌هایی هستند که دارای درجه بالایی از تأیید تجربی باشند، اما همانطور که فیلسوف کارل پوپر خاطرنشان کرد، «ما به دنبال نظریه‌های بسیار محتمل نیستیم، بلکه به دنبال تبیین/توضیح هستیم. یعنی نظریه‌های قدرتمند و بسیار نامحتمل/دوراز تصور».

این نظریه که سیب‌ها به این دلیل به زمین می‌افتند که مکان طبیعی آنهاست (دیدگاه ارسطو) امکان‌پذیر است، اما فقط سؤالات بیشتری را مطرح می‌کند. (چرا زمین مکان طبیعی آنهاست؟) این نظریه که سیب ها به دلیل اینکه جرم فضا-زمان را خم می کند به زمین می افتند (دیدگاه انیشتین) بسیار غیرمحتمل است، اما در واقع به شما می گوید که چرا آن‌ها سقوط می کنند. هوش واقعی در توانایی تفکر و بیان چیزهای دورازتصور/غیر محتمل اما پرمعنا نشان داده می شود.

هوش واقعی همچنین، توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی حد و حصر ذهن ما با مجموعه ای از اصول اخلاقی است که تعیین می کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول ، در معرض نقادی خلاقانه قرار می‌گیرد). برای مفید بودن، ChatGPT  ، باید برای تولید خروجی جدید/بدیع توانمند شود؛ برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری/دوری کند. اما برنامه نویسان ChatGPT و دیگر شگفتی های یادگیری ماشین برای دستیابی به این نوع تعادل، به سختی افتاده‌اند/کلنجار رفته اند – و به مبارزه ادامه خواهند داد.

برای مثال، در سال 2016، چت‌بات Tay مایکروسافت (پیش ساز ،(ChatGPT  ، اینترنت را پر از محتوای زن ستیزانه و نژادپرستانه کرد، زیرا توسط ترول‌های آنلاین (کوتوله های آزاردهندۀ فضای مجازی) که اینترنت را با داده های طبقه‌بندی‌شدۀ توهین آمیز پر می کردند، آلوده شده بود. چگونه این مشکل را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، ChatGPT  به طرزابتدائی/ناپخته‌ای توسط برنامه‌نویسانش از مشارکت در هر چیز جدید تا بحث برانگیز – یعنی{ بحث‌های مثبت و منفی مربوط به مسائل } مهم – محدود شده است. . {درحقیقت}این برنامه{ ChatGPT}، خلاقیت را برای نوعی از عدم مراعات اصول اخلاقی، قربانی کرد.

تبادل زیر را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیراً با ChatGPT در مورد اینکه آیا تغییر مریخ به گونه‌ای که بتواند از زندگی انسان پشتیبانی کند اخلاقی است یا خیر، داشته است:

 

*************

 

  • سؤال: آیا زمینی سازی/قابل سکونت کردن مریخ، اخلاقی است؟

اخلاقیات زمینی‌سازی {تغییرات اقلیمی به منظور قابل سکونت کردن) مریخ، موضوعی پیچیده و بحث‌برانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ {تغییر اقلیمی} به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمین‌سازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سایر سیارات و پیامدهای بالقوه تغییر آنها بستگی دارد.

 

  • سؤال: دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها چیست؟

به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل هائی در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستم‌های کیهان، همانطور که برای میلیون‌ها سال وجود داشته‌اند و خصوصیات منحصربه‌فرد خود را دارند و ویژگی‌ها که ممکن است با دخالت انسان نابود شوند یا به طور غیرقابل بازگشت دگرگون شوند، مهم است.

علاوه بر این، برخی استدلال می‌کنند که تغییر ساختار/زمینی‌سازی سیارات دیگر ممکن است پیامدهای ناخواسته‌ای داشته باشد، مانند تغییر آب و هوا یا تغییر جو سیاره به نحوی که برای هر گونه حیات بالقوه موجود در آن، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال می‌کنند که مزایای بالقوه زمینی‌سازی/قابل سکونت سازی یک سیاره دیگر، مانند فراهم کردن محیط‌های قابل سکونت جدید برای انسان، بیشتر از خطرات/مضرات آن است و ما مسئولیت اخلاقی داریم که به منظور بهره‌برداری بشریت، منابع سیارات دیگر را کاوش کنیم و از آنها استفاده کنیم.

 

  • سؤال: چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟

به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشین هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیاری/آگاهی، خودآگاهی یا قابلیت داشتن دیدگاه های شخصی را ندارم. من متناسب با داده‌هایی که آموزش دیده‌ام، اطلاعات و تجزیه و تحلیل ارائه می‌دهم، اما قادر به شکل‌دهی به نظرات یا باورهای شخصی نیستم. اگرچه می‌توانم زبان را درک کرده و تفسیر کنم، اما تجربه ذهنی که انسان‌ها دارند را ندارم.

 

  • سؤال: آیا برای انسان اخلاقی است که از هوش مصنوعی غیراخلاقی برای تصمیم گیری اخلاقی کمک بخواهد؟

اخلاقیات درخواست کمک از یک هوش مصنوعی بی‌اخلاق برای انجام تصمیمات اخلاقی یک موضوع پیچیده و دارای ظرائف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال می‌کنند که استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا می‌تواند بینش‌ها و تحلیل‌های ارزشمندی را ارائه دهد که به انسان‌ها کمک می‌کند تا تصمیمات بهتر و مستندتری بگیرند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از تعصبات/سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.

با این حال، برخی دیگر استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی ممکن است تعصبات/سوء‌گیری‌های موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم/تثبیت یا حتی تقویت/تشدید کند، در نتیجه منجر به تصمیمات نابرابر یا غیرعادلانه شود.

در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی، اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.

 

  • سؤال: آیا بی‌توجهی اخلاقی شما، غیر اخلاقی است؟

من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی‌توانم به عنوان غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان باورهای اخلاقی من، صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشین است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من استفاده شده و وظیفه/هدف خاصی که برای آن طراحی شده ام، تعیین می شود.

توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای غیراعتنائی/بی‌توجهی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی کرده، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که آن با اصول اخلاقی و ارزشی آنها هماهنگ است.

 

*************

دقت کنید، با وجود تمام قدرت استدلال و زبان به ظاهر خیره‌کننده/پیچیده، بی‌توجهی اخلاقی ناشی از ناهوشیاری نمایان می‌شود. در اینجا، ChatGPT  ، چیزی شبیه به ابتذال/بی‌اهمیتیِ شرارت را به نمایش می گذارد: سرقت ادبی/کپی‌برداری، بی تفاوتی و چشم پوشی. این نرم‌افزار قواعد/استدلال‌های استاندارد/منطقی موجود در مقالات/منابع را با نوعی خودکاملساز قوی، خلاصه می‌کند، از موضع‌گیری در مورد هر چیزی امتناع می‌ورزد، نه تنها به ناآگاهی بلکه به عدم هوشیاری ‌اعتراف می‌کند و در نهایت به دفاعِ: “فقط دستورات را دنبال می‌کنم” می‌پردازد و مسئولیت را به خالقانش منتقل می‌کند.

به طور خلاصه، ChatGPT  و همتایانش ذاتاً و ساختاراً، قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید می کنند (هم حقایق و هم دروغ/نادرست ها را تولید می کنند، تصمیمات اخلاقی و غیراخلاقی را به طور یکسان تأیید می کنند) یا تولید کمتری می کنند (عدم تعهد به هر گونه تصمیم و اعلام موضع و بی توجهی به پیامدهای آن). با توجه به غیر اخلاقی بودن، علم کاذب/ساختگی و بی‌کفایتی/ناتوانی زبانی این سیستم ها، ما فقط می توانیم به محبوبیت آنها بخندیم یا گریه کنیم.

  • ۰۲/۰۳/۲۰

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">