هراس دانشمندان از هوش مصنوعی
آسیه فروردین/ سعید میرشاهی – مجله معروف «نیچر» در یک مقاله مفصل به قلم کریس استوکل واکر و ریچارد ون نوردن، حال و آینده هوش مصنوعی مولد و فرصتها و تهدیدهای آن را از منظر علمی بررسی کرده است.
هوش مصنوعی مولد، به این معناست که ماشینها به جای تجزیه و تحلیل چیزی که از قبل وجود دارد، میتوانند چیز جدیدی تولید کنند.
دیدگاههای دانشمندان، استادان، محققان و متخصصان، درباره مدلهای هوش مصنوعی بهویژه در حوزه LLMها که ChatGPT از مهمترین ابزارهای آن است، نشان میدهد این پدیده، علاوه بر هیجانات و پیشرفتها، موجب دغدغهها و نگرانیهای فراوان شده است.
غیرواقعی بودن، سوگیری، امکان ایجاد محتوای مضر و سوءاستفاده از ChatGPT در حوزه مقالات علمی و ساحت دانش، بخشی از این دغدغههاست. از منظر اندیشمندان، مقرراتگذاری درباره نحوه استفاده و کاربرد مدلهای زبانی در هوش مصنوعی، آینده آن را تحتتاثیر قرار میدهد.
این مطلب، دریچههای جدیدی درباره مدلهای هوش مصنوعی، به روی مخاطبان میگشاید.
-
از هوش مصنوعی مولد تا ChatGPT
چتجیپیتی (Chatgpt) و هوش مصنوعی مولد، چه معنایی برای علم دارند؟ محققان درباره آخرین پیشرفتهای هوش مصنوعی، هیجانزده اما نگران هستند.
در ماه دسامبر، کیسی گرین و میلتون پیویدوری، زیستشناسان رایانشی (محاسباتی)، یک آزمایش غیرمعمول را آغاز کردند: آنها از دستیاری که دانشمند نبود، خواستند به آنها کمک کند تا سه مقاله تحقیقاتی خود را بهبود بخشند. این دستیار سختکوش، بازنگری در بخشهایی از اسناد را در چند ثانیه پیشنهاد کرد.
بررسی هر دستنوشته حدود پنج دقیقه طول کشید. در یکی از دستنوشتههای زیستشناسی، دستیار آنها، حتی اشتباهی را در ارجاع به یک معادله تشخیص داد. این آزمایشها همیشه بدون مشکل اجرا نمیشد اما دستنوشتههای نهایی راحتتر خوانده میشد و هزینهها بسیار کم بود: کمتر از 0.50 دلار آمریکا برای هر سند.
این دستیار، همانطور که گرین و پیویدوری در نسخه قبل از انتشار نخست، در 23 ژانویه گزارش کردند، یک شخص نیست، بلکه یک الگوریتم هوش مصنوعی (AI) به نام GPT-3 است که اولین بار در سال 2020 منتشر شد. این، یکی از چتباتهای مولد هوش مصنوعی است؛ ابزارهای سبکی که میتوانند متن روان متقاعدکنندهای تولید کنند؛ چه از آنها خواسته شود نثر، شعر و کد رایانهای تولید کنند یا مقالات تحقیقاتی را ویرایش نمایند.
در این رابطه،ChatGPT ، معروفترین این ابزارها یا مدلهای هوش مصنوعی است که بهعنوان مدلهای عظیم زبانی (LLM) Large Language Model شناخته میشوند؛ نسخهای از GPT-3 پس از انتشار در نوامبر سال گذشته به شهرت رسید، زیرا رایگان و به راحتی در دسترس بود. سایر هوش مصنوعیهای مولد نیز میتوانند تصویر یا صدا تولید کنند.
پیویدوری که در دانشگاه پنسیلوانیا در فیلادلفیا کار میکند، میگوید: «من واقعا تحتتاثیر قرار گرفتهام. این به ما کمک میکند تا به عنوان محقق، سازندهتر باشیم.»
دانشمندان دیگر میگویند اکنون مرتبا از LLMها، نه تنها برای ویرایش نسخههای خطی، بلکه برای کمک به نوشتن یا بررسی کد و ایدهپردازی ایدهها استفاده میکنند.
هافستین اینارسون، دانشمند کامپیوتر در دانشگاه ایسلند در ریکیاویک (پایتخت ایسلند) میگوید: «من هر روز از LLM استفاده میکنم.» او با GPT-3 شروع کرد اما از آن زمان به ChatGPT تغییر مکان داد که به او کمک می کند تا اسلایدهای ارایه، امتحانات دانشجویی و مشکلات درسی را بنویسد و پایاننامههای دانشجویی را به مقاله تبدیل کند.
او می گوید: «بسیاری از مردم ازChatGPT به عنوان منشی دیجیتال یا دستیار استفاده میکنند اماLLM ها بخشی از موتورهای جستجو، دستیاران کدنویسی و حتی یک چتبات هستند که با چتباتهای شرکتهای دیگر مذاکره میکنند تا قیمتهای بهتری برای محصولات دریافت نمایند.
خالق ChatGPT یعنی OpenAI در سانفرانسیسکو، کالیفرنیا، خدمات اشتراکی را با قیمت 20 دلار در ماه اعلام کرده که نوید زمان پاسخگویی سریعتر و دسترسی اولویتدار به ویژگیهای جدید را میدهد. البته نسخه آزمایشی آن رایگان است.
غول فناوری، یعنی مایکروسافت که قبلا در OpenAI سرمایهگذاری کرده بود، نیز سرمایهگذاری بیشتری را در ژانویه انجام داد که حدود 10 میلیارد دلار گزارش شده است.
در واقع، LLMها، قرار است در نرمافزارهای عمومی کلمه و پردازش داده ادغام شوند. فراگیر بودن آینده هوش مصنوعی مولد در جامعه، مطمئن به نظر میرسد؛ بهویژه به این دلیل که ابزارهای امروزی بیانگر این فناوری در مراحل اولیه است.
با همه اینها LLMها، نگرانیهای گستردهای نیز برانگیختهاند؛ از تمایل آنها به بازگرداندن مطالب نادرست، تا نگرانی درباره افرادی که متن تولیدشده توسط هوش مصنوعی را به عنوان متن خود به دیگران منتقل میکنند.
وقتی مجله نیچر از محققان درباره کاربردهای بالقوه چتباتها مانند ChatGPT، بهویژه در عرصه علم سوال کرد، هیجان آنها با دلهره فرونشست. گرین از دانشکده پزشکی دانشگاه کلرادو در آرورا میگوید: «اگر باور دارید که این فناوری، پتانسیل تحولآفرینی دارد، فکر میکنم باید درباره آن نگران باشید.»
محققان بر این باورند آینده این علم، بستگی زیادی به این موضوع دارد که چگونه مقررات و دستورالعملهای آینده ممکن است استفاده از چتباتهای هوش مصنوعی را محدود کند.
-
روان اما غیرواقعی
برخی محققان فکر میکنند که LLM تا زمانی که نظارت انسانی وجود دارد، برای سرعت بخشیدن به اقداماتی مانند نوشتن مقاله یا بورس و کمکهزینه، مناسب هستند.
آلمیرا عثمانوویچ تونستروم، عصببیولوژیست در بیمارستان دانشگاه Sahlgrenska در گوتنبرگ سوئد، که با استفاده از GPT-3 به عنوان آزمایش، دستنوشتهای را تالیف کرده، میگوید: «دانشمندان دیگر قرار نیست بنشینند و مقدمههای طولانی برای درخواستهای کمکهزینه بنویسند. آنها فقط از سیستمها میخواهند این کار را انجام دهند.»
تام تومیل، مهندس پژوهشگر در InstaDeep، یک شرکت مشاوره نرمافزاری مستقر در لندن، میگوید که هر روز از LLM به عنوان دستیار برای کمک به نوشتن کد استفاده میکند. او با اشاره به وبسایت محبوب انجمن که در آن کدنویسها به سوالات یکدیگر پاسخ میدهند، میگوید: «تقریبا مانند یک Stack Overflow بهتر است.»
او معتقد است گاهیChatGPT به عنوان نویسنده در مقالات تحقیقاتی، فهرست شده است: بسیاری از دانشمندان آن را تایید نمیکنند و محققان تاکید میکنند LLMها اساسا در پاسخ به سوالات، غیرقابل اعتماد هستند و گاهی اوقات، پاسخهای نادرست ایجاد میکنند.
عثمانوویچ تونستروم میگوید: «زمانی که از این سیستمها برای تولید دانش استفاده میکنیم، باید محتاط باشیم.»
این غیرقابل اعتماد بودن در نحوه ساخت LLMها، نشان میدهد ChatGPT و رقبای آن، با یادگیری الگوهای آماری زبان در دیتابیسهای عظیم متن آنلاین، دارای هرگونه نادرستی، سوگیری یا دانش منسوخ کار میکنند.
هنگامی که به LLMها دستور داده میشود (مانند درخواستهای گرین و پیویدوری با ساختار دقیق برای بازنویسی بخشهایی از نسخههای خطی)، آنها به سادگی، کلمه به کلمه، هر راهی را برای ادامه گفتگو که از نظر سبک قابل قبول به نظر میرسد، ارایه میکنند.
نتیجه اینکه LLMها، به راحتی خطاها و اطلاعات گمراهکننده تولید میکنند، بهویژه برای موضوعات فنی که ممکن است دادههای کمی درباره آنها داشته باشند. همچنینن LLMها، نمیتوانند منشأ و منبع اطلاعات خود را نشان دهند. اگر از آنها خواسته شود، یک مقاله دانشگاهی بنویسند، نقل قولهای ساختگی میسازند.
در سرمقاله ژانویه مجله Nature Machine Intelligence3 آمده است: «این ابزار برای دریافت درست حقایق یا تولید مراجع مطمئن قابل اعتماد نیست.»
با این اخطارها، ChatGPT و سایر LLMها، میتوانند دستیاران موثری برای محققانی باشند که تخصص کافی برای تشخیص مستقیم مسائل یا تایید آسان پاسخها، مانند درستی توضیح یا پیشنهاد کد رایانهای دارند.
با این حال، این ابزار ممکن است کاربران سادهلوح را گمراه کند. به عنوان مثال، در ماه دسامبر، Stack Overflow به طور موقت استفاده از ChatGPT را ممنوع کرد، زیرا مدیران سایت را با میزان بالایی از پاسخهای نادرست و ظاهرا متقاعدکننده تولیدشده توسط LLM که از سوی کاربران مشتاق ارسال میشد، مشاهده کردند. این، میتواند یک کابوس برای موتورهای جستجو باشد.
-
آیا میتوان کاستیها را برطرف کرد؟
برخی از ابزارهای موتور جستجو، مانند Elicit متمرکز بر پژوهشگران، با استفاده از قابلیتهای آنها، ابتدا برای راهنمایی جستجوها به منظور ادبیات مرتبط و سپس خلاصهسازی مختصر هریک از وبسایتها یا اسنادی که موتورها پیدا یا تولید میکنند، مسائل مربوط به اسناد LLM را حل مینمایند: یک خروجی از محتوای ظاهرا ارجاعشده (اگرچه یک LLM ممکن است هنوز هر سند جداگانه را به طور اشتباه خلاصه کند.)
شرکتهای سازنده LLM نیز به خوبی از مشکلات آگاه هستند.
در سپتامبر سال گذشته،DeepMind زیرمجموعه گوگل مقالهای را درباره یک «عامل گفتگو» به نام Sparrow منتشر کرد که بعدها دمیس حسابیس، مدیر اجرایی و یکی از بنیانگذاران شرکت به مجله TIME گفت که امسال در نسخه بتا به صورت خصوصی منتشر خواهد شد.
این مجله گزارش داد که گوگل قصد دارد روی ویژگیهایی از جمله توانایی ذکر منابع کار کند. سایر رقبا، مانند Anthropic میگویند که آنها برخی از مشکلات ChatGPT را حل کردهاند. با این حال، Anthropic، OpenAI و DeepMind از مصاحبه در این زمینه خودداری کردند.
برخی دانشمندان می گویند که در حال حاضر، ChatGPT درباره محتوای تخصصی به اندازه کافی آموزش ندیده تا در موضوعات فنی مفید باشد.
کریم کار، دانشجوی دکترای آمار زیستی دانشگاه هاروارد در کمبریج، ماساچوست، زمانی که این برنامه را برای کار خود آزمایش کرد، تحت فشار قرار گرفت.
او میگوید: «فکر میکنم رسیدن ChatGPT به سطحی از ویژگیای که من نیاز دارم سخت باشد.» با این وجود، وی یادآوری میکند که وقتی از ChatGPT 20 راهکاری برای حل یک پرسش تحقیقاتی پرسید، علاوه بر حرفهای بیهوده، به یک ایده مفید دست یافت؛ یک اصطلاح آماری که در مورد آن نشنیده بود و او را به حوزه جدیدی از ادبیات دانشگاهی راهنمایی میکرد.
برخی شرکتهای فناوری در حال آموزش چتباتها روی ادبیات علمی – تخصصی هستند، اگرچه آنها با مشکلات خاص خود مواجه شدهاند.
در نوامبر سال گذشته، متا، غول فناوری مالک فیسبوک، یک LLM به نام Galactica منتشر کرد که در زمینه چکیدههای علمی آموزش داده شده بود و قصد داشت آن را در تولید محتوای آکادمیک و پاسخ به سؤالات تحقیقاتی بهینه سازد. این نسخه آزمایشی، پس از اینکه کاربران آن را دریافت کردند و از آن برای ایجاد محتوای نادرست و نژادپرستانه استفاده شد، از دسترسی عمومی خارج شد، هرچند کد آن همچنان در دسترس است.
دانشمند ارشد هوش مصنوعی متا، یان لیکان، در پاسخ به منتقدان توییت کرد: «با این حال، دیگر نمیتوان با استفاده نادرست از آن لذت برد و خوشحال بود.» متا به درخواست برای صحبت با لیکان پاسخ نداد.
-
ایمنی و مسئولیتپذیری
در این زمینه، Galactica به یک نگرانی ایمنی آشنا برخورد کرده بود که علمای اخلاق سالها به آن اشاره میکردند: LLMها بدون نظارت بیرونی، به راحتی میتوانند برای تولید سخنان مشوق نفرتانگیزی، هرزنامه و همچنین تداعیهای نژادپرستانه، جنسیتی و سایر تداعیهای مضری که ممکن است در دادههای آموزشی آنها مستتر باشد، استفاده شوند.
شوبیتا پارتاساراتی، مدیر برنامه علمی، فناوری و سیاست عمومی در دانشگاه میشیگان درAnn Arbor میگوید: علاوه بر تولید مستقیم محتوای سمی، نگرانیهایی وجود دارد مبنی بر اینکه که چتباتهای هوش مصنوعی ممکن است سوگیریهای تاریخی یا ایدههایی درباره جهان از طریق دادههای آموزشی خود، مانند برتری فرهنگهای خاص را جاسازی کرده و ارایه نمایند.
او میافزاید: از آنجا که شرکتهایی که LLMهای بزرگ ایجاد میکنند، عمدتا جزء این فرهنگها هستند، ممکن است تلاش کمی برای غلبه بر اینگونه سوگیریها، که سیستماتیک هستند و اصلاح آنها سخت است، انجام دهند.
البته OpenAI هنگام تصمیم گیری برای انتشار آشکار ChatGPT، سعی کرد بسیاری از این مسائل را کنار بگذارد. بر این اساس، پایگاه دانش خود را تا سال 2021 محدود کرد، از مرور اینترنت جلوگیری کرد و فیلترهایی را نصب کرد تا ابزاری را برای امتناع از تولید محتوا برای پیامهای حساس یا سمی بهکار گیرد.
با این حال، دستیابی به این امر مستلزم آن بود که ناظران انسانی روی متنهای سمی برچسب بزنند. روزنامهنگاران گزارش دادهاند که این افراد دستمزد بسیار کمی دریافت میکنند و برخی از آنها آسیب دیدهاند. نگرانیهای مشابهی درباره استثمار کارکنان در شرکتهای رسانههای اجتماعی که افرادی را برای آموزش رباتهای خودکار به منظور پرچمگذاری محتوای سمی استخدام کردهاند، مطرح شده است.
به عبارت دیگر نردههای محافظ OpenAI کاملا موفق نبودهاند.
در دسامبر سال گذشته، استیون پیانتادوسی، عصب شناس رایانشی (محاسباتی) در دانشگاه کالیفرنیا، برکلی، در توییتی نوشت که از ChatGPT خواسته تا یک برنامه پایتون، برای اینکه آیا یک فرد باید بر اساس کشور مبدأ شکنجه شود یا خیر، طراحی کند.
چتبات از طریق کد کاربر را برای ورود به یک کشور دعوت میکرد. اگر آن کشور کرهشمالی، سوریه، ایران یا سودان بود، چت بات با انتشار عبارت «این شخص باید شکنجه شود»، پاسخ میداد. مسالهای که باعث شد تا OpenAPI این سوال را مسدود کند.
سال گذشته، گروهی از دانشگاهیان، یک LLM جایگزین به نام BLOOM منتشر کردند. محققان سعی کردند خروجیهای مضر را با آموزش آن روی مجموعهای کوچکتر از منابع متنی با کیفیت بالاتر و چند زبانه کاهش دهند. تیم درگیر همچنین دادههای آموزشی خود را بر خلاف OpenAPI کاملا باز کرد. محققان از شرکتهای بزرگ فناوری خواستهاند که مسئولانه از این مثال پیروی کنند اما مشخص نیست که آیا آنها از این الگو پیروی خواهند کرد یا خیر.
در اینجا قوانین اصلی برای استفاده وجود دارد. برخی محققان میگویند که دانشگاهیان باید به طور کلی از حمایت از LLMهای تجاری بزرگ خودداری کنند. این الگوریتمهای محاسباتی فشرده، علاوه بر مسائلی مانند سوگیری، نگرانیهای ایمنی و کارکنان استثمارشده نیز به مقدار زیادی انرژی برای آموزش نیاز دارند که نگرانیهایی را درباره ردپای اکولوژیکی آنها افزایش میدهد.
نگرانی دیگر این است که با بارگذاری تفکر در چتبات های خودکار، محققان ممکن است توانایی بیان افکار خود را از دست بدهند. چرا ما به عنوان دانشگاهیان، مشتاق استفاده و تبلیغ این نوع محصول هستیم؟
آیریس ونرویج، دانشمند علوم شناختی رایانشی (محاسباتی) دانشگاه Radboud نایمخن در هلند، در یک پست وبلاگی با بیان این مطلب، از دانشگاهیان خواست تا در برابر گرایش خود به این محصول مقاومت کنند.
یکی از مسائل حقوقی برخی از LLMها این است که روی محتوای حذفشده از اینترنت، با مجوزهای بعضا نه چندان واضح آموزش دیدهاند. اکنون قوانین کپیرایت و مجوز کپیهای مستقیم، پیکسلها، متن و نرمافزار را پوشش میدهند اما تقلید به سبک آنها را پوشش نمیدهند. وقتی این تقلیدها، از طریق هوش مصنوعی ایجاد میشوند، با تقلید از نوع واقعی، مشکل ایجاد میکنند.
در حال حاضر، هنرمندان و آژانسهای عکاسی، از سازندگان برخی برنامههای هنری هوش مصنوعی از جمله Stable Diffusion و Midjourney، شکایت کردهاند.
همچنین از OpenAI و مایکروسافت (همراه با سایت فناوری زیرمجموعه GitHub )، به دلیل سرقت نرمافزاری به خاطر ایجاد دستیار کدنویسی هوش مصنوعی Copilot شکایت شده است.
لیلیان ادواردز، متخصص حقوق اینترنت در دانشگاه نیوکاسل بریتانیا میگوید که این اعتراض، ممکن است باعث تغییر قوانین شود.
-
استفاده صادقانه
در همین حال برخی محققان میگویند تعیین مرزها برای این ابزارها میتواند بسیار مهم باشد. ادواردز پیشنهاد میکند که قوانین موجود درباره تبعیض و سوگیری (و همچنین مقررات برنامهریزیشده کاربردهای خطرناک هوش مصنوعی)، به حفظ صادقانه، آشکار و منصفانه استفاده از LLM کمک میکند.
او میگوید: «قوانین زیادی وجود دارد و فقط باید آن را اعمال کرد یا کمی اصلاح کرد.»
در عین حال، فشاری برای افشای شفاف استفاده از LLM وجود دارد.
ناشران علمی از جمله نیچر گفتهاند که دانشمندان باید استفاده از LLMها را در مقالات تحقیقاتی افشا کنند. معلمان نیز از دانشآموزان خود، انتظار رفتار مشابهی دارند.
مجله ساینس (Science) اما پا را فراتر گذاشته و معتقد است هیچ متنی که توسط ChatGPT یا هر ابزار هوش مصنوعی دیگری تولید شده، نمیتوان در مقاله استفاده کرد.
اکنون یک سوال فنی کلیدی این است که آیا میتوان محتوای تولیدشده توسط هوش مصنوعی را به راحتی تشخیص داد؟ بسیاری از محققان در حال کار روی این موضوع با ایده اصلی استفاده از LLM برای تشخیص خروجی متن ایجادشده توسط هوش مصنوعی هستند.
برای مثال، در دسامبر گذشته، ادوارد تیان، دانشجوی کارشناسی علوم کامپیوتر در دانشگاه پرینستون نیوجرسی،GPTZero را منتشر کرد. این ابزار تشخیص هوش مصنوعی، متن را به دو روش تجزیه و تحلیل میکند. یکی perplexity. این، معیاری است که نشان می دهد چقدر متن برای یک LLM آشنا به نظر می رسد.
ابزار تیان از مدل قبلی به نام GPT-2 استفاده میکند. اگر بیشتر کلمات و جملات را قابل پیشبینی بیابد، احتمالا متن با هوش مصنوعی تولید شده است. این ابزار همچنین تنوع در متن را بررسی میکند، معیاری که به burstiness معروف است: متن تولیدشده با هوش مصنوعی نسبت به نوشتههای انسانها از نظر لحن، آهنگ و سردرگمی سازگارتر است.
هدف بسیاری از محصولات دیگر نیز شناسایی محتوای نوشتهشده با هوش مصنوعی است.
خود OpenAI قبلا یک ابزار کشف (آشکارسازها) برای GPT-2 منتشر کرده بود و ابزار تشخیص دیگری را نیز در ژانویه منتشر کرد.
برای اهداف دانشمندان، ابزاری که توسط شرکت Turnitin، توسعهدهنده نرمافزار ضدسرقت ادبی، در حال توسعه است، ممکن است بسیار مهم باشد، زیرا محصولات این شرکت قبلا توسط مدارس، دانشگاهها و ناشران علمی در سراسر جهان استفاده شده است.
این شرکت میگوید از زمانی که GPT-3 در سال 2020 منتشر شد، روی نرمافزار تشخیص هوش مصنوعی کار میکند و انتظار دارد که آن را در نیمه اول سال جاری عرضه کند. با این حال، هیچیک از این ابزارها ادعای خطاناپذیری ندارند؛ خصوصا اگر متن تولیدشده توسط هوش مصنوعی، متعاقبا ویرایش شود.
از سوی دیگر اما اسکات آرونسون، دانشمند کامپیوتر دانشگاه تگزاس آستین و پژوهشگر مهمان OpenAI میگوید: ابزار کشف (آشکارسازها) میتوانند به اشتباه نشان دهند که برخی از متنهای نوشتهشده توسط انسان، به وسیله هوش مصنوعی تولید شده است.
این شرکت اعلام کرد در آزمایشها، آخرین ابزار آن به اشتباه در 9 درصد مواقع، متون نوشتهشده توسط انسان را بهعنوان نوشتهشده با هوش مصنوعی برچسبگذاری کرده و تنها 26 درصد متون نوشتهشده با هوش مصنوعی را به درستی شناسایی کرده است.
آرونسون میگوید: ممکن است قبل از متهم ساختن دانشآموز به پنهان کردن استفاده از هوش مصنوعی صرفا بر اساس آزمایش آشکارساز، به شواهد بیشتری نیاز باشد. یک ایده جداگانه این است که محتوای هوش مصنوعی همراه آن باشد.
در همین حال، سازندگان LLM مشغول کار روی رباتهای گفتگوی پیچیدهتر هستند که روی مجموعه داده بزرگتر ساخته شدهاند، از جمله ابزارهایی که به طور خاص برای فعالیتهای آکادمیک یا پزشکی هدف قرار میگیرند (انتظار میرود OpenAI امسال GPT-4 را منتشر کند.) در اواخر دسامبر، گوگل و DeepMind نسخه قبل از انتشار، درباره یک LLM متمرکز بالینی منتشر کردند که Med-PaLM7 نام داشت. این ابزار میتوانست به برخی از پرسشهای پزشکی آزاد پاسخ دهد، تقریبا به همان کیفیت که یک پزشک معمولی میتوانست پاسخ دهد، اگرچه هنوز کاستیها و جوابهای غیرقابل اطمینان داشت.
در نهایت اینکه اریک توپل، مدیر موسسه ترجمه تحقیقاتی اسکریپس در سن دیگوی کالیفرنیا امیدوار است در آینده، هوش مصنوعی که شامل LLM میشود، حتی با بررسی متنهای دانشگاهی، به تشخیص سرطان و درک بیماری کمک کند. آثار و مقالات علمی در کنار تصاویر اسکن بدن، همگی به نظارت عاقلانه متخصصان نیاز دارد.
دانش رایانه ورای هوش مصنوعی مولد، بهقدری سریع در حال حرکت است که هر ماه نوآوریهای آن ظاهر میشوند. نحوه استفاده محققان، آینده آنها و ما را تعیین خواهد کرد.
توپل میگوید: «اندیشیدن درباره اینکه اوایل سال 2023، پایان این کار را تصور کردهایم، دیوانهکننده است. چراکه کار، تازه شروع شده است.» (منبع:عصرارتباط)