ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

هراس دانشمندان از هوش مصنوعی

| دوشنبه, ۸ اسفند ۱۴۰۱، ۰۸:۴۵ ق.ظ | ۰ نظر

آسیه فروردین/ سعید میرشاهی – مجله معروف «نیچر» در یک مقاله مفصل به قلم کریس استوکل واکر و ریچارد ون نوردن، حال و آینده هوش مصنوعی مولد و فرصت‌ها و تهدیدهای آن را از منظر علمی بررسی کرده است.

هوش مصنوعی مولد، به این معناست که ماشین‌ها به جای تجزیه‌ و تحلیل چیزی که از قبل وجود دارد، می‌توانند چیز جدیدی تولید کنند.

دیدگاه‌های دانشمندان، استادان، محققان و متخصصان، درباره مدل‌های هوش مصنوعی به‌ویژه در حوزه LLMها که ChatGPT از مهم‌ترین ابزارهای آن است، نشان می‌دهد این پدیده، علاوه بر هیجانات و پیشرفت‌ها، موجب دغدغه‌ها و نگرانی‌های فراوان شده است.

غیرواقعی بودن، سوگیری، امکان ایجاد محتوای مضر و سوءاستفاده از ChatGPT در حوزه مقالات علمی و ساحت دانش، بخشی از این دغدغه‌هاست. از منظر اندیشمندان، مقررات‌گذاری درباره نحوه استفاده و کاربرد مدل‌های زبانی در هوش مصنوعی، آینده آن را تحت‌تاثیر قرار می‌دهد.

این مطلب، دریچه‌های جدیدی درباره مدل‌های هوش مصنوعی، به روی مخاطبان می‌گشاید.

 

 

  • از هوش مصنوعی مولد تا ChatGPT
    چت‌جی‌پی‌تی (Chatgpt) و هوش مصنوعی مولد، چه معنایی برای علم دارند؟ محققان درباره آخرین پیشرفت‌های هوش مصنوعی، هیجان‌زده اما نگران هستند.

در ماه دسامبر، کیسی گرین و میلتون پیویدوری، زیست‌شناسان رایانشی (محاسباتی)، یک آزمایش غیرمعمول را آغاز کردند: آنها از دستیاری که دانشمند نبود، خواستند به آنها کمک کند تا سه مقاله تحقیقاتی خود را بهبود بخشند. این دستیار سختکوش، بازنگری در بخش‌هایی از اسناد را در چند ثانیه پیشنهاد کرد.

بررسی هر دست‌نوشته حدود پنج دقیقه طول کشید. در یکی از دست‌نوشته‌های زیست‌شناسی، دستیار آنها، حتی اشتباهی را در ارجاع به یک معادله تشخیص داد. این آزمایش‌ها همیشه بدون مشکل اجرا نمی‌شد اما دست‌نوشته‌های نهایی راحت‌تر خوانده می‌شد و هزینه‌ها بسیار کم بود: کمتر از 0.50 دلار آمریکا برای هر سند.

این دستیار، همان‌طور که گرین و پیویدوری در نسخه قبل از انتشار نخست، در 23 ژانویه گزارش کردند، یک شخص نیست، بلکه یک الگوریتم هوش مصنوعی (AI) به نام GPT-3 است که اولین بار در سال 2020 منتشر شد. این، یکی از چت‌بات‌های مولد هوش مصنوعی است؛ ابزارهای سبکی که می‌توانند متن روان متقاعدکننده‌ای تولید کنند؛ چه از آنها خواسته شود نثر، شعر و کد رایانه‌ای تولید کنند یا مقالات تحقیقاتی را ویرایش نمایند.

در این رابطه،ChatGPT ، معروف‌ترین این ابزارها یا مدل‌های هوش مصنوعی است که به‌عنوان مدل‌های عظیم زبانی (LLM) Large Language Model شناخته می‌شوند؛ نسخه‌ای از GPT-3 پس از انتشار در نوامبر سال گذشته به شهرت رسید، زیرا رایگان و به راحتی در دسترس بود. سایر هوش مصنوعی‌های مولد نیز می‌توانند تصویر یا صدا تولید کنند.

پیویدوری که در دانشگاه پنسیلوانیا در فیلادلفیا کار می‌کند، می‌گوید: «من واقعا تحت‌تاثیر قرار گرفته‌ام. این به ما کمک می‌کند تا به عنوان محقق، سازنده‌تر باشیم.»

دانشمندان دیگر می‌گویند اکنون مرتبا از LLMها، نه تنها برای ویرایش نسخه‌های خطی، بلکه برای کمک به نوشتن یا بررسی کد و ایده‌پردازی ایده‌ها استفاده می‌کنند.

هافستین اینارسون، دانشمند کامپیوتر در دانشگاه ایسلند در ریکیاویک (پایتخت ایسلند) می‌گوید: «من هر روز از LLM استفاده می‌کنم.» او با GPT-3 شروع کرد اما از آن زمان به ChatGPT  تغییر مکان داد که به او کمک می کند تا اسلایدهای ارایه، امتحانات دانشجویی و مشکلات درسی را بنویسد و پایان‌نامه‌های دانشجویی را به مقاله تبدیل کند.

او می گوید: «بسیاری از مردم ازChatGPT  به عنوان منشی دیجیتال یا دستیار استفاده می‌کنند اماLLM ها بخشی از موتورهای جستجو، دستیاران کدنویسی و حتی یک چت‌بات هستند که با چت‌بات‌های شرکت‌های دیگر مذاکره می‌کنند تا قیمت‌های بهتری برای محصولات دریافت نمایند.

خالق  ChatGPT یعنی OpenAI در سانفرانسیسکو، کالیفرنیا، خدمات اشتراکی را با قیمت 20 دلار در ماه اعلام کرده که نوید زمان پاسخگویی سریع‌تر و دسترسی اولویت‌دار به ویژگی‌های جدید را می‌دهد. البته نسخه آزمایشی آن رایگان است.

غول فناوری، یعنی مایکروسافت که قبلا در OpenAI سرمایه‌گذاری کرده بود، نیز سرمایه‌گذاری بیشتری را در ژانویه انجام داد که حدود 10 میلیارد دلار گزارش شده است.

در واقع، LLMها، قرار است در نرم‌افزارهای عمومی کلمه و پردازش داده ادغام شوند. فراگیر بودن آینده هوش مصنوعی مولد در جامعه، مطمئن به نظر می‌رسد؛ به‌ویژه به این دلیل که ابزارهای امروزی بیانگر این فناوری در مراحل اولیه است.

با همه اینها LLMها، نگرانی‌های گسترده‌ای نیز برانگیخته‌اند؛ از تمایل آنها به بازگرداندن مطالب نادرست، تا نگرانی درباره افرادی که متن تولیدشده توسط هوش مصنوعی را به عنوان متن خود به دیگران منتقل می‌کنند.

وقتی مجله نیچر از محققان درباره کاربردهای بالقوه چت‌بات‌ها مانند ChatGPT، به‌ویژه در عرصه علم سوال کرد، هیجان آنها با دلهره  فرونشست. گرین از دانشکده پزشکی دانشگاه کلرادو در آرورا می‌‌‌گوید: «اگر باور دارید که این فناوری، پتانسیل تحول‌آفرینی دارد، فکر می‌کنم باید درباره آن نگران باشید.»

محققان بر این باورند آینده این علم، بستگی زیادی به این موضوع دارد که چگونه مقررات و دستورالعمل‌های آینده ممکن است استفاده از چت‌بات‌های هوش مصنوعی را محدود کند.

 

 

  • روان اما غیرواقعی
    برخی محققان فکر می‌کنند که LLM تا زمانی که نظارت انسانی وجود دارد، برای سرعت بخشیدن به اقداماتی مانند نوشتن مقاله یا بورس و کمک‌هزینه، مناسب هستند.

آلمیرا عثمانوویچ تونستروم، عصب‌بیولوژیست در بیمارستان دانشگاه Sahlgrenska در گوتنبرگ سوئد، که با استفاده از GPT-3 به‌ عنوان آزمایش، دست‌نوشته‌ای را تالیف کرده، می‌گوید: «دانشمندان دیگر قرار نیست بنشینند و مقدمه‌های طولانی برای درخواست‌های کمک‌هزینه بنویسند. آنها فقط از سیستم‌ها می‌خواهند این کار را انجام دهند.»

تام تومیل، مهندس پژوهشگر در InstaDeep، یک شرکت مشاوره نرم‌افزاری مستقر در لندن، می‌گوید که هر روز از LLM به عنوان دستیار برای کمک به نوشتن کد استفاده می‌کند. او با اشاره به وب‌سایت محبوب  انجمن که در آن کدنویس‌ها به سوالات یکدیگر پاسخ می‌دهند، می‌گوید: «تقریبا مانند یک Stack Overflow بهتر است.»

او معتقد است گاهیChatGPT  به عنوان نویسنده در مقالات تحقیقاتی، فهرست شده است: بسیاری از دانشمندان آن را تایید نمی‌کنند و محققان تاکید می‌کنند LLMها اساسا در پاسخ به سوالات، غیرقابل اعتماد هستند و گاهی اوقات، پاسخ‌های نادرست ایجاد می‌کنند.

عثمانوویچ تونستروم می‌گوید: «زمانی که از این سیستم‌ها برای تولید دانش استفاده می‌کنیم، باید محتاط باشیم.»

این غیرقابل اعتماد بودن در نحوه ساخت LLMها، نشان می‌دهد ChatGPT و رقبای آن، با یادگیری الگوهای آماری زبان در دیتابیس‌های عظیم متن آنلاین، دارای هرگونه نادرستی، سوگیری یا دانش منسوخ کار می‌کنند.

هنگامی که به LLMها دستور داده می‌شود (مانند درخواست‌های گرین و پیویدوری با ساختار دقیق برای بازنویسی بخش‌هایی از نسخه‌های خطی)، آنها به سادگی، کلمه به کلمه، هر راهی را برای ادامه گفتگو که از نظر سبک قابل قبول به نظر می‌رسد، ارایه می‌کنند.

نتیجه اینکه LLMها، به راحتی خطاها و اطلاعات گمراه‌کننده تولید می‌کنند، به‌ویژه برای موضوعات فنی که ممکن است داده‌های کمی درباره آنها داشته باشند. همچنینن LLMها، نمی‌توانند منشأ و منبع اطلاعات خود را نشان دهند. اگر از آنها خواسته شود، یک مقاله دانشگاهی بنویسند، نقل قول‌های ساختگی می‌سازند.

در سرمقاله ژانویه مجله Nature Machine Intelligence3 آمده است: «این ابزار برای دریافت درست حقایق یا تولید مراجع مطمئن قابل اعتماد نیست.»

با این اخطارها، ChatGPT و سایر LLMها، می‌توانند دستیاران موثری برای محققانی باشند که تخصص کافی برای تشخیص مستقیم مسائل یا تایید آسان پاسخ‌ها، مانند درستی توضیح یا پیشنهاد کد رایانه‌ای دارند.

با این حال، این ابزار ممکن است کاربران ساده‌لوح را گمراه کند. به عنوان مثال، در ماه دسامبر، Stack Overflow به طور موقت استفاده از ChatGPT را ممنوع کرد، زیرا مدیران سایت را با میزان بالایی از پاسخ‌های نادرست و ظاهرا متقاعدکننده تولیدشده توسط LLM که از سوی کاربران مشتاق ارسال می‌شد، مشاهده کردند. این، می‌تواند یک کابوس برای موتورهای جستجو باشد.

 

 

  • آیا می‌توان کاستی‌ها را برطرف کرد؟
    برخی از ابزارهای موتور جستجو، مانند Elicit متمرکز بر پژوهشگران، با استفاده از قابلیت‌های آنها، ابتدا برای راهنمایی جستجوها به منظور ادبیات مرتبط و سپس خلاصه‌سازی مختصر هریک از وب‌سایت‌ها یا اسنادی که موتورها پیدا یا تولید می‌کنند، مسائل مربوط به اسناد LLM را حل می‌نمایند: یک خروجی از محتوای ظاهرا ارجاع‌شده (اگرچه یک LLM ممکن است هنوز هر سند جداگانه را به طور اشتباه خلاصه کند.)

شرکت‌های سازنده LLM نیز به خوبی از مشکلات آگاه هستند.

در سپتامبر سال گذشته،DeepMind  زیرمجموعه گوگل مقاله‌ای را درباره یک «عامل گفتگو» به نام Sparrow منتشر کرد که بعدها دمیس حسابیس، مدیر اجرایی و یکی از بنیانگذاران شرکت به مجله TIME گفت که امسال در نسخه بتا به صورت خصوصی منتشر خواهد شد.

این مجله گزارش داد که گوگل قصد دارد روی ویژگی‌هایی از جمله توانایی ذکر منابع کار کند. سایر رقبا، مانند  Anthropic می‌گویند که آنها برخی از مشکلات ChatGPT را حل کرده‌اند. با این حال، Anthropic، OpenAI  و DeepMind از مصاحبه در این زمینه خودداری کردند.

برخی دانشمندان می گویند که در حال حاضر، ChatGPT  درباره محتوای تخصصی به اندازه کافی آموزش ندیده تا در موضوعات فنی مفید باشد.

کریم کار، دانشجوی دکترای آمار زیستی دانشگاه هاروارد در کمبریج، ماساچوست، زمانی که این برنامه را برای کار خود آزمایش کرد، تحت فشار قرار گرفت.

او می‌گوید: «فکر می‌کنم رسیدن ChatGPT به سطحی از ویژگی‌ای که من نیاز دارم سخت باشد.» با این وجود، وی یادآوری می‌کند که وقتی از ChatGPT 20 راهکاری برای حل یک پرسش تحقیقاتی پرسید، علاوه بر حرف‌های بیهوده، به یک ایده مفید دست یافت؛ یک اصطلاح آماری که در مورد آن نشنیده بود و او را به حوزه جدیدی از ادبیات دانشگاهی راهنمایی می‌کرد.

برخی شرکت‌های فناوری در حال آموزش چت‌بات‌ها روی ادبیات علمی – تخصصی هستند، اگرچه آنها با مشکلات خاص خود مواجه شده‌اند.

در نوامبر سال گذشته، متا، غول فناوری مالک فیس‌بوک، یک LLM به نام Galactica منتشر کرد که در زمینه چکیده‌های علمی آموزش‌ داده ‌شده بود و قصد داشت آن را در تولید محتوای آکادمیک و پاسخ به سؤالات تحقیقاتی بهینه سازد. این نسخه آزمایشی، پس از اینکه کاربران آن را دریافت کردند و از آن برای ایجاد محتوای نادرست و نژادپرستانه استفاده شد، از دسترسی عمومی خارج شد، هرچند کد آن همچنان در دسترس است.

دانشمند ارشد هوش مصنوعی متا، یان لیکان، در پاسخ به منتقدان توییت کرد: «با این حال، دیگر نمی‌توان با استفاده نادرست از آن لذت برد و خوشحال بود.» متا به درخواست برای صحبت با لیکان پاسخ نداد.

 

 

  • ایمنی و مسئولیت‌پذیری
    در این زمینه، Galactica به یک نگرانی ایمنی آشنا برخورد کرده بود که علمای اخلاق سال‌ها به آن اشاره می‌کردند: LLMها بدون نظارت بیرونی، به راحتی می‌توانند برای تولید سخنان مشوق نفرت‌انگیزی، هرزنامه و همچنین تداعی‌های نژادپرستانه، جنسیتی و سایر تداعی‌های مضری که ممکن است در داده‌های آموزشی آنها مستتر باشد، استفاده شوند.

شوبیتا پارتاساراتی، مدیر برنامه علمی، فناوری و سیاست عمومی در دانشگاه میشیگان درAnn Arbor  می‌گوید: علاوه بر تولید مستقیم محتوای سمی، نگرانی‌هایی وجود دارد مبنی بر اینکه که چت‌بات‌های هوش مصنوعی ممکن است سوگیری‌های تاریخی یا ایده‌هایی درباره جهان از طریق داده‌های آموزشی خود، مانند برتری فرهنگ‌های خاص را جاسازی کرده و ارایه نمایند.

او می‌افزاید: از آنجا که شرکت‌هایی که LLMهای بزرگ ایجاد می‌کنند، عمدتا جزء این فرهنگ‌ها هستند، ممکن است تلاش کمی برای غلبه بر این‌گونه سوگیری‌ها، که سیستماتیک هستند و اصلاح آن‌ها سخت است، انجام دهند.

البته OpenAI هنگام تصمیم گیری برای انتشار آشکار ChatGPT، سعی کرد بسیاری از این مسائل را کنار بگذارد. بر این اساس، پایگاه دانش خود را تا سال 2021 محدود کرد، از مرور اینترنت جلوگیری کرد و فیلترهایی را نصب کرد تا ابزاری را برای امتناع از تولید محتوا برای پیام‌های حساس یا سمی به‌کار گیرد.

با این حال، دستیابی به این امر مستلزم آن بود که ناظران انسانی روی متن‌های سمی برچسب بزنند. روزنامه‌نگاران گزارش داده‌اند که این افراد دستمزد بسیار کمی دریافت می‌کنند و برخی از آنها آسیب دیده‌اند. نگرانی‌های مشابهی درباره استثمار کارکنان در شرکت‌های رسانه‌های اجتماعی که افرادی را برای آموزش ربات‌های خودکار به منظور پرچم‌گذاری محتوای سمی استخدام کرده‌اند، مطرح شده است.

به عبارت دیگر نرده‌های محافظ OpenAI کاملا موفق نبوده‌اند.

در دسامبر سال گذشته، استیون پیانتادوسی، عصب شناس رایانشی (محاسباتی) در دانشگاه کالیفرنیا، برکلی، در توییتی نوشت که از ChatGPT خواسته تا یک برنامه پایتون، برای اینکه آیا یک فرد باید بر اساس کشور مبدأ شکنجه شود یا خیر، طراحی کند.

چت‌بات از طریق کد کاربر را برای ورود به یک کشور دعوت می‌کرد. اگر آن کشور کره‌شمالی، سوریه، ایران یا سودان بود، چت بات با انتشار عبارت «این شخص باید شکنجه شود»، پاسخ می‌داد. مساله‌ای که باعث شد تا OpenAPI این سوال را مسدود کند.

سال گذشته، گروهی از دانشگاهیان، یک LLM جایگزین به نام BLOOM منتشر کردند. محققان سعی کردند خروجی‌های مضر را با آموزش آن روی مجموعه‌ای کوچک‌تر از منابع متنی با کیفیت بالاتر و چند زبانه کاهش دهند. تیم درگیر همچنین داده‌های آموزشی خود را بر خلاف OpenAPI کاملا باز کرد. محققان از شرکت‌های بزرگ فناوری خواسته‌اند که مسئولانه از این مثال پیروی کنند اما مشخص نیست که آیا آنها از این الگو پیروی خواهند کرد یا خیر.

در اینجا قوانین اصلی برای استفاده وجود دارد. برخی محققان می‌گویند که دانشگاهیان باید به طور کلی از حمایت از  LLMهای تجاری بزرگ خودداری کنند. این الگوریتم‌های محاسباتی فشرده، علاوه بر مسائلی مانند سوگیری، نگرانی‌های ایمنی و کارکنان استثمارشده نیز به مقدار زیادی انرژی برای آموزش نیاز دارند که نگرانی‌هایی را درباره ردپای اکولوژیکی آنها افزایش می‌دهد.

نگرانی دیگر این است که با بارگذاری تفکر در چت‌بات های خودکار، محققان ممکن است توانایی بیان افکار خود را از دست بدهند. چرا ما به عنوان دانشگاهیان، مشتاق استفاده و تبلیغ این نوع محصول هستیم؟

آیریس ون‌رویج، دانشمند علوم شناختی رایانشی (محاسباتی) دانشگاه Radboud نایمخن در هلند، در یک پست وبلاگی با بیان این مطلب، از دانشگاهیان خواست تا در برابر گرایش خود به این محصول مقاومت کنند.

یکی از مسائل حقوقی برخی از LLMها این است که روی محتوای حذف‌شده از اینترنت، با مجوزهای بعضا نه چندان واضح آموزش دیده‌اند. اکنون قوانین کپی‌رایت و مجوز کپی‌های مستقیم، پیکسل‌ها، متن و نرم‌افزار را پوشش می‌دهند اما تقلید به سبک آنها را پوشش نمی‌دهند. وقتی این تقلیدها، از طریق هوش مصنوعی ایجاد می‌شوند، با تقلید از نوع واقعی، مشکل ایجاد می‌کنند.

در حال حاضر، هنرمندان و آژانس‌های عکاسی، از سازندگان برخی برنامه‌های هنری هوش مصنوعی از جمله Stable Diffusion و Midjourney، شکایت کرده‌اند.

همچنین از OpenAI و مایکروسافت (همراه با سایت فناوری زیرمجموعه GitHub )، به دلیل سرقت نرم‌افزاری به خاطر ایجاد دستیار کدنویسی هوش مصنوعی Copilot شکایت شده است.

لیلیان ادواردز، متخصص حقوق اینترنت در دانشگاه نیوکاسل بریتانیا می‌گوید که این اعتراض، ممکن است باعث تغییر قوانین شود.

 

 

  • استفاده صادقانه
    در همین حال برخی محققان می‌گویند تعیین مرزها برای این ابزارها می‌تواند بسیار مهم باشد. ادواردز پیشنهاد می‌کند که قوانین موجود درباره تبعیض و سوگیری (و همچنین مقررات برنامه‌ریزی‌شده کاربردهای خطرناک هوش مصنوعی)، به حفظ صادقانه، آشکار و منصفانه استفاده از LLM کمک می‌کند.

او می‌گوید: «قوانین زیادی وجود دارد و فقط باید آن را اعمال کرد یا کمی اصلاح کرد.»

در عین حال، فشاری برای افشای شفاف استفاده از LLM وجود دارد.

ناشران علمی از جمله نیچر گفته‌اند که دانشمندان باید استفاده از LLMها را در مقالات تحقیقاتی افشا کنند. معلمان نیز از دانش‌آموزان خود، انتظار رفتار مشابهی دارند.

مجله ساینس (Science) اما پا را فراتر گذاشته و معتقد است هیچ متنی که توسط ChatGPT یا هر ابزار هوش مصنوعی دیگری تولید شده، نمی‌توان در مقاله استفاده کرد.

اکنون یک سوال فنی کلیدی این است که آیا می‌توان محتوای تولیدشده توسط هوش مصنوعی را به راحتی تشخیص داد؟ بسیاری از محققان در حال کار روی این موضوع با ایده اصلی استفاده از LLM برای تشخیص خروجی متن ایجادشده توسط هوش مصنوعی هستند.

برای مثال، در دسامبر گذشته، ادوارد تیان، دانشجوی کارشناسی علوم کامپیوتر در دانشگاه پرینستون نیوجرسی،GPTZero را منتشر کرد. این ابزار تشخیص هوش مصنوعی، متن را به دو روش تجزیه و تحلیل می‌کند. یکی perplexity. این، معیاری است که نشان می دهد چقدر متن برای یک LLM آشنا به نظر می رسد.

ابزار  تیان از مدل قبلی به نام GPT-2 استفاده می‌کند. اگر بیشتر کلمات و جملات را قابل پیش‌بینی بیابد، احتمالا متن با هوش مصنوعی تولید شده است. این ابزار همچنین تنوع در متن را بررسی می‌کند، معیاری که به burstiness معروف است: متن تولیدشده با هوش مصنوعی نسبت به نوشته‌های انسان‌ها از نظر لحن، آهنگ و سردرگمی سازگارتر است.

هدف بسیاری از محصولات دیگر نیز شناسایی محتوای نوشته‌شده با هوش مصنوعی است.

خود OpenAI قبلا یک ابزار کشف (آشکارسازها) برای GPT-2  منتشر کرده بود و ابزار تشخیص دیگری را نیز در ژانویه منتشر کرد.

 برای اهداف دانشمندان، ابزاری که توسط شرکت Turnitin، توسعه‌دهنده نرم‌افزار ضدسرقت ادبی، در حال توسعه است، ممکن است بسیار مهم باشد، زیرا محصولات این شرکت قبلا توسط مدارس، دانشگاه‌ها و ناشران علمی در سراسر جهان استفاده شده است.

این شرکت می‌گوید از زمانی که GPT-3 در سال 2020 منتشر شد، روی نرم‌افزار تشخیص هوش مصنوعی کار می‌کند و انتظار دارد که آن را در نیمه اول سال جاری عرضه کند. با این حال، هیچ‌یک از این ابزارها ادعای خطاناپذیری ندارند؛ خصوصا اگر متن تولیدشده توسط هوش مصنوعی، متعاقبا ویرایش شود.

از سوی دیگر اما اسکات آرونسون، دانشمند کامپیوتر دانشگاه تگزاس آستین و پژوهشگر مهمان OpenAI می‌گوید: ابزار کشف (آشکارسازها) می‌توانند به اشتباه نشان دهند که برخی از متن‌های نوشته‌شده توسط انسان، به وسیله هوش مصنوعی تولید شده است.

این شرکت اعلام کرد در آزمایش‌ها، آخرین ابزار آن به اشتباه در 9 درصد مواقع، متون نوشته‌شده توسط انسان را به‌عنوان نوشته‌شده با هوش مصنوعی برچسب‌گذاری کرده و تنها 26 درصد متون نوشته‌شده با هوش مصنوعی را به درستی شناسایی کرده است.

آرونسون می‌گوید: ممکن است قبل از متهم ساختن دانش‌آموز به پنهان کردن استفاده از هوش مصنوعی صرفا بر اساس آزمایش آشکارساز، به شواهد بیشتری نیاز باشد. یک ایده جداگانه این است که محتوای هوش مصنوعی همراه آن باشد.

در همین حال، سازندگان LLM مشغول کار روی ربات‌های گفتگوی پیچیده‌تر هستند که روی مجموعه‌ داده بزرگ‌تر ساخته شده‌اند، از جمله ابزارهایی که به طور خاص برای فعالیت‌های آکادمیک یا پزشکی هدف قرار می‌گیرند (انتظار می‌رود OpenAI امسال GPT-4 را منتشر کند.) در اواخر دسامبر، گوگل و DeepMind نسخه قبل از انتشار، درباره یک LLM متمرکز بالینی منتشر کردند که Med-PaLM7 نام داشت. این ابزار می‌توانست به برخی از پرسش‌های پزشکی آزاد پاسخ دهد، تقریبا به همان کیفیت که یک پزشک معمولی می‌توانست پاسخ دهد، اگرچه هنوز کاستی‌ها و جواب‌های غیرقابل اطمینان‌ داشت.

در نهایت اینکه اریک توپل، مدیر موسسه ترجمه تحقیقاتی اسکریپس در سن دیگوی کالیفرنیا امیدوار است در آینده، هوش مصنوعی که شامل LLM می‌شود، حتی با بررسی متن‌های دانشگاهی، به تشخیص سرطان و درک بیماری کمک کند. آثار و مقالات علمی در کنار تصاویر اسکن بدن، همگی به نظارت عاقلانه متخصصان نیاز دارد.

دانش رایانه ورای هوش مصنوعی مولد، به‌قدری سریع در حال حرکت است که هر ماه نوآوری‌های آن ظاهر می‌شوند. نحوه استفاده محققان، آینده آنها و ما را تعیین خواهد کرد.

توپل می‌گوید: «اندیشیدن درباره اینکه اوایل سال 2023، پایان این کار را تصور کرده‌ایم، دیوانه‌کننده است. چراکه کار، تازه شروع شده است.» (منبع:عصرارتباط)

  • ۰۱/۱۲/۰۸

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">