ضعف مدلهای هوش مصنوعی در شناسایی چرندیات
نتیجه منتشرشده از یک مطالعه نشان میدهد، مدلهای هوش مصنوعی که رباتهای چت و سایر برنامهها را تقویت میکنند، همچنان در تشخیص چرندیات و زبان طبیعی مشکل دارند.
به گزارش آنا به نقل از لایفتکنولوژی، نتیجه یک مطالعه منتشرشده نشان میدهد مدلهای هوش مصنوعی که قدرت چتباتها و سایر برنامهها را تأمین میکنند، هنوز با مشکل شناسایی زبان بیمعنی و در اصطلاح مزخرف و طبیعی دچار مشکل هستند.
پژوهشگران دانشگاه کلمبیا در آمریکا که این پژوهش را انجام دادند میگویند، بررسی آنها محدودیتهای مدلهای فعلی هوش مصنوعی را نشان میدهد و پیشنهاد میکنند که هنوز زود است که این مدلها را به صورت نامحدود در محیطهای قانونی یا پزشکی وارد کنیم.
محققان مدلهای هوش مصنوعی را امتحان کردند و صدها جفت جمله را برای آنها ارسال کردند و از آنها پرسیدند که کدامیک احتمالاً در گفتار روزمره شنیده میشود.
این تحقیق که در مجله «هوش ماشین نیچر» (Nature Machine Intelligence) منتشر شد، سپس پاسخهای هوش مصنوعی را در مقابل پاسخهای انسانی سنجید و به تفاوتهای چشمگیری دست پیدا کرد. تنها مدلهای پیچیدهای مانند چتجیپیتی۲ معمولاً با پاسخهای انسانی مطابقت داشت. جیپیتی ۲ بدون دریافت ویژگی خاص، مستقیما از مدل زبانی جیپیتی-۱ در سال ۲۰۱۸ ایجاد شد که با افزایش ده برابری در تعداد پارامترها و اندازه مجموعه داده آموزشی آن همراه بود. جیپیتی ۲ متن را ترجمه میکند، به سؤالات پاسخ میدهد و پاراگرافها را خلاصه میکند و گاهی متنی را تولید میکند که تشخیص غیر انسانی بودن آن دشوار است، ولی در هنگام ایجاد پاسخهای زیاد ممکن است پاسخهای تکراری یا بیمعنی ارائه دهد.
به گفته پژوهشگران، سایر مدلهای سادهتر عملکرد کمتری داشتند. اما همه مدلها اشتباه کردند.
کریستوفر بالداسانو، استاد روانشناسی و نویسنده این گزارش میگوید: هر مدل نقاط کوری را از خود نشان میداد و برخی از جملاتی را معنیدار میدانست که شرکتکنندگان انسانی آن را چرندیات میدانستند؛ خروجی این مطالعه نشان میدهد در مورد میزان حضور هوش مصنوعی و بهویژه در موارد مهم و تاثیرگذار به زمان بیشتری احتیاج است و برای این مواقع فعلا دست نگه داشت.
تال گولان، یکی دیگر از نویسندگان این مقاله به خبرگزاری فرانسه گفت، این مدلها فناوری هیجانانگیزی هستند که میتواند بهرهوری انسان را به طور چشمگیری تکمیل کند.
با این حال، او استدلال کرد که اجازه دادن به این مدلها برای جایگزین تصمیمگیری انسانی در حوزههایی مانند قانون، پزشکی یا ارزیابی دانشآموزان هنوز زود و عجولانه است.
گولان یادآوری کرد، یکی از مشکلات این است که افراد ممکن است عمداً از نقاط کور برای دستکاری مدلها سوءاستفاده کنند.
مدلهای هوش مصنوعی با انتشار چتجیپیتی در سال گذشته به اطلاع عموم رسیدند. هوش مصنوعی در حال حاضر، تقریباً در تمامی بخشهای کسبوکار، شامل حمل و نقل، بهداشت و سلامت، بانکداری، سرگرمی و تفریحات و تجارت الکترونیک مورد استفاده قرار میگیرد.