لزوم کاهش شتاب در ارایه مقالات هوش مصنوعی
در سال 2019، تعداد مقالات منتشر شده درباره هوش مصنوعی و یادگیری ماشین، فقط در ایالات متحده بهحدود 25 هزار عنوان رسید؛ در حالی که این تعداد در سال 2015 میلادی نزدیک به 10 هزار عنوان بود. فقط در کنفرانس سال گذشته NeurIPS که بزرگترین کنفرانس یادگیری ماشین و علوم اعصاب رایانشی جهان محسوب میشود، از هزاران شرکتکننده، دو هزار مقاله پذیرفته شد.
آیتیمن- شکی نیست که این شتاب در رشد مقالات، نشاندهنده، محبوبیت، سرمایهگذاری و به همین نسبت، افزایش رقابت درون جامعه تحقیقاتی هوش مصنوعی است. اما برخی دانشگاهیان معتقدند که این شوق و اشتهای بیپایان برای پیشرفت در این زمینه، بیش از آنکه مفید باشد، زیان خواهد داشت.
زاخاری لیپتون، استادیار دانشگاه کارنگی ملون، که همزمان در مدرسه کسبوکار تپر (Tepper) و واحد یادگیری ماشین این دانشگاه مسوولیت دارد، پیشنهاد کرده که مهلت یک سالهای برای مقالات مرتبط در کل جامعه دانشگاهی مصنوعی اعمال شود که به گفته او، میتواند موجب تفکر بیشتر شود، بدون اینکه لزوم رسیدن به ضربالاجل، موجب تولید محتواهای کم ارزش شود.
وی میگوید: بهمنی از مقالات که با آن روبهروییم، در واقع به کسانی آسیب میزند که استنادات زیاد و موقعیت دانشگاهی خوبی ندارند. سطح بالای مقالات بیارزش در این حوزه، موجب شده که «مقاله داشتن» معنای خود را از دست بدهد.
وی میافزاید: واقعیت این است که داشتن مقاله، دیگر ارزش خود را از دست داده است؛ زیرا حتی در بین مقالات پذیرفته شده نیز، مقالات بیارزش بسیار زیاد است.
تیمنیت گبرو (Timnit Gebru)، راهبر تیم هوش مصنوعی اخلاقی گوگل نیز نظر مشابهی دارد. او در توییتی که پیش از آغاز به کار کنفرانس AAAI درباره هوش مصنوعی که اوایل ماه جاری میلادی در نیویورک برپا شد، نوشت: من درگیر کنفرانسها و رویدادهای مرتبط با خدمات بسیاری هستم تا جایی که نمیتوانم به همه برسم. کارهای زیادی باید برگزاری یک کنفرانس باید انجام شود، مثل تدارکات، بررسی و تایید مقالات، سازماندهی و غیره. دانشگاهیان میگویند، شما که در صنعت هستید، وقت بیشتری برای تحقیقات دارید، ولی در مورد من که اینگونه نیست. به نظر میرسد که خواندن، کد نویسی و تلاش برای فهمیدن، کارهایی است که باید در اوغات فراغتم به آنها برسم، در حالی که مسوولیت اصلی من هستند.
شواهد نشان میدهد که این فشار برای تولید مقاله، منجر به انجام تحقیقاتی شده که میتواند برای عموم گمراه کننده باشد و تحقیقات آینده را نیز از مسیر درست خارج کند. در فراتحلیلی که لیپتون و جیکوب استاینهارد (عضو هیات علمی دانشکده آمار دانشگاههای کالیفرنیا، برکلی و آزمایشگاه هوش مصنوعی برکلی) انجام دادند، این دو پژوهشگر به شکلگیری روندهای مشکلساز در فعالیتهای تحقیقاتی حوزه یادگیری ماشین به این شرح اشاره کردهاند:
- ناتوانی در ایجاد تمایز بین گمانهزنیها و توضیحات و در شناسایی منابع دستاوردهای تجربی
- استفاده از ریاضیاتی که به جای شفافسازی، موجب سردرگمی میشود
- سوءاستفاده از زبان، مثلا با استفاده بیش از حد از اصطلاحات فنی
این دو پژوهشگر، اعتقاد دارند که رشد سریع جامعه تحقیقاتی هوش مصنوعی موجب کمبود نیروهای بازبینی کننده مقالات شده است. از سوی دیگر مشوقهای اغلب نادرست، مانند اثر مثبت پذیرفته شدن مقاله در کنفرانسهای علمی در دریافت بورس تحصیلی، از عوامل رشد مقالات بی کیفیت است.
این پژوهشگران، نمونههایی نیز از تحقیقاتی ارایه دادهاند که میتواند گمراه کننده باشد.
نمونه اول مربوط به مقالهای از پژوهشگران هوش مصنوعی گوگل است. آنان نشان دادند که یک سیستم هوش مصنوعی میتواند در یافتن نشانههای سرطان پستان در ماموگرام از متخصصان بهتر عمل کند. اما پس از آن، مقالهای در نشریه Wired منتشر شد که نشان میداد غربالگری ماموگرام، از نظر برخی، یک مداخله ناقص است. سیستمهای هوش مصنوعی مانند آن چیزی که محققان گوگل درباره آن صحبت میکنند، میتواند به بهبود نتایج منجر شود، اما در عین حال ممکن است به تشخیص نادرست و درمان بیش از حد نیاز نیز منجر شود.
نمونه دیگر مربوط به پژوهشگران مایکروسافت و دانشگاه بیهانگ چین است. این پژوهشگران مدل هوش مصنوعی را توسعه دادهاند که میتواند اخبار را مثل انسان بخواند و درباره آنها نظر بدهد؛ اما در مقاله این پژوهشگران، به سوءاستفادههای احتمالی ازاین مدل اشاره نشده است. بیتوجهی به پیامدهای اخلاقی این مدل، واکنشهای زیادی برانگیخت و تیم تحقیقاتی را بر آن داشت تا یک مقاله به روز شده را برای رفع نگرانیها منتشر کند.
مولف : کایل ویگرز
مرجع : VentureBeat