جهان

آکسفورد: تشخیص پزشکی چت‌بات‌ها معتبر نیست

پژوهشگران دانشگاه آکسفورد با انجام پژوهشی نشان دادند که استفاده غیرمحتاطانه از هوش مصنوعی در پزشکی می‌تواند نابرابری اطلاعاتی و فشار بر نظام درمان ایجاد کند.

رشد شتابان هوش مصنوعی طی سال‌های اخیر، انتظارات گسترده‌ای را درباره تحول در نظام سلامت ایجاد کرده است. از تشخیص زودهنگام بیماری‌ها تا بهینه‌سازی فرآیندهای درمانی، بسیاری از تحلیلگران، هوش مصنوعی را به‌عنوان موتور محرک نسل بعدی خدمات پزشکی معرفی کرده‌اند. با این حال، مطالعات اخیر از سوی پژوهشگران نشان می‌دهد که استفاده از چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ برای دریافت مشاوره پزشکی می‌تواند «خطرناک» باشد؛ هشداری که بار دیگر شکاف میان ظرفیت‌های فناورانه و آمادگی عملیاتی این ابزارها را برجسته می‌کند.

پژوهش مشترک اخیر محققان مؤسسه اینترنت آکسفورد (Oxford Internet Institute) و دپارتمان علوم بهداشتی مراقبت‌های اولیه نافیلد (Nuffield Department of Primary Care Health Sciences) در دانشگاه آکسفورد، تصویری واقع‌گرایانه از وضعیت کنونی هوش مصنوعی در حوزه سلامت ارائه می‌دهد. یافته‌های این مطالعه بزرگ، نشان می‌دهد که هیجان رسانه‌ای پیرامون پزشکان دیجیتال نباید سیاستگذاران، ارائه‌دهندگان خدمات درمانی و حتی بیماران را از مخاطرات بالقوه این فناوری غافل کند.

طراحی مطالعه: سنجش هوش مصنوعی در برابر تصمیم‌های واقعی سلامت

در این پژوهش، نزدیک به ۱۳۰۰ نفر از شرکت‌کنندگان در معرض سناریوهای مختلف در حوزه سلامت قرار گرفتند و از آن‌ها خواسته شد وضعیت‌های احتمالی بالینی و مسیر اقدام مناسب را شناسایی کنند. بخشی از این افراد برای دریافت تشخیص اولیه و توصیه‌های بعدی از نرم‌افزارهای هوش مصنوعی مبتنی بر مدل‌های زبانی بزرگ استفاده کردند، در حالی که گروه دیگر از روش‌های سنتی‌تر مانند مراجعه به پزشک عمومی بهره بردند.

ارزیابی نتایج نشان داد که پاسخ‌های تولیدشده توسط هوش مصنوعی اغلب ترکیبی از اطلاعات صحیح و نادرست بوده است؛ مسئله‌ای که کاربران عادی در تفکیک آن با دشواری مواجه بودند. به بیان دیگر، مشکل صرفاً در خطاهای سامانه‌های هوش مصنوعی خلاصه نمی‌شود، بلکه در توهم دقت نیز ریشه دارد؛ وضعیتی که در آن خروجی‌های روان و قاطعانه مدل، حس اعتماد کاذب در بیمار ایجاد می‌کند.

پارادوکس توانمندی: موفق در آزمون، پرریسک در واقعیت

یکی از نکات کلیدی این مطالعه، وجود شکافی معنادار میان عملکرد هوش مصنوعی در آزمون‌های استاندارد دانش پزشکی و کارآمدی آن در موقعیت‌های واقعی است. بر همین اساس، چت‌بات‌ها ممکن است در پاسخ به سوالات ساختاریافته عملکردی چشمگیر داشته باشند، اما هنگامی که پای علائم واقعی، ابهامات در علائم بالینی و تفاوت‌های فردی به میان می‌آید، قابلیت اتکا به آن‌ها کاهش می‌یابد.

دکتر ربکا پین، از نویسندگان این پژوهش، تصریح می‌کند که «با وجود تمام هیاهوها، هوش مصنوعی هنوز آماده ایفای نقش پزشک نیست». به گفته او، بیماران باید آگاه باشند که طرح علائم بیماری با یک مدل زبانی می‌تواند به تشخیص‌های نادرست منجر شود و حتی در تشخیص موقعیت‌های اورژانسی نیز ناکارآمد باشد.

چالش تعامل انسانی: نقطه ضعف پنهان مدل‌های زبانی

اندرو بین، نویسنده اصلی این مطالعه، به مسئله مهم دیگری اشاره می‌کند و مدعی است که تعامل با انسان‌ها همچنان برای پیشرفته‌ترین مدل‌های زبانی امری چالش‌برانگیز است. پزشکی حوزه‌ای است که در آن داده‌های ناقص، توصیف‌های مبهم و متغیرهای رفتاری نقش تعیین‌کننده دارند. برخلاف محیط‌های آزمایشگاهی، بیماران اغلب علائم خود را به‌صورت غیرساختاریافته بیان می‌کنند و همین موضوع احتمال سوءبرداشت الگوریتمی را افزایش می‌دهد.

کارشناسان بر این باورند که این مسئله نشان می‌دهد طراحی سیستم‌های هوش مصنوعی برای حوزه‌های حساس و پرریسک صرفاً به افزایش دقت مدل وابسته نیست، بلکه به درک عمیق‌تر از زمینه، قضاوت بالینی و مدیریت عدم قطعیت نیاز دارد.

ریسک‌های راهبردی برای نظام سلامت

در ادامه، یافته‌های این پژوهش چند پیام راهبردی برای آینده حکمرانی سلامت دیجیتال به همراه دارد. نخست آن که استفاده خودسرانه از هوش مصنوعی برای خودتشخیصی چالش‌های سلامتی می‌تواند فشار مضاعفی بر نظام درمان وارد کند. تشخیص‌های اشتباه ممکن است باعث مراجعه‌های غیرضروری یا بالعکس و تأخیر در دریافت مراقبت‌های حیاتی شود.

مسئله دوم، خطر شکل‌گیری نابرابری اطلاعاتی است. بر همین اساس، افرادی که توانایی ارزیابی انتقادی خروجی‌های هوش مصنوعی را ندارند، بیش از دیگران در معرض تصمیم‌های پرریسک قرار می‌گیرند. در نهایت مورد بعدی این که یافته‌ها ضرورت تدوین چارچوب‌های تنظیم‌گری دقیق‌تر را برجسته می‌کند. اگرچه بسیاری از کشورها در حال توسعه مقررات برای هوش مصنوعی در بخش پزشکی هستند، اما سرعت نوآوری اغلب از سرعت قانونگذاری پیشی می‌گیرد.

بازتعریف جایگاه هوش مصنوعی: دستیار هوشمند بخش پزشکی

برداشت کلیدی از این مطالعه آن است که ارزش واقعی هوش مصنوعی در حال حاضر نه در جایگزینی پزشکان، بلکه در تقویت توانمندی آن‌ها نهفته است. فناوری هوش مصنوعی می‌تواند در غربالگری اولیه داده‌ها، خلاصه‌سازی پرونده‌های پزشکی، یا ارائه هشدارهای تصمیم‌یار نقش‌آفرینی کند؛ اما انتقال مسئولیت تشخیص به الگوریتم‌ها هنوز زودهنگام به نظر می‌رسد.

به عبارت دیگر، در واقع آینده محتمل‌تر برای سلامت دیجیتال، مدل «همکاری انسان و ماشین» است؛ مدلی که در آن فناوری هوش مصنوعی به‌عنوان لایه‌ای تحلیلی عمل می‌کند و تصمیم نهایی همچنان در اختیار متخصص انسانی باقی می‌ماند.

این مطالعه برای سیاستگذاران یادآور یک اصل بنیادین است. در حوزه‌های پرمخاطره، نوآوری بدون حکمرانی دقیق می‌تواند به تهدید تبدیل شود. از همین روی، توسعه استانداردهای ارزیابی بالینی، الزام به شفافیت الگوریتمی و تعریف مسئولیت حقوقی ارائه‌دهندگان هوش مصنوعی از جمله اقداماتی هستند که باید در اولویت قرار گیرد. از سوی دیگر، برای شرکت‌های فناوری نیز پیام روشن است و بر همین مبنا، رقابت بر سر عرضه سریع‌تر محصولات نباید جایگزین ایمنی شود. اعتماد عمومی در حوزه سلامت سرمایه‌ای است که به‌سادگی به دست نمی‌آید و با یک خطای پرهزینه می‌تواند از بین برود.

عبور از هیجان به بلوغ فناورانه

مطالعه دانشگاه آکسفورد را می‌توان هشداری جدی به اکوسیستم فناوری و به‌ویژه بازیگران حوزه سلامت دیجیتال دانست؛ هشداری که نشان می‌دهد مسیر تبدیل هوش مصنوعی به یک بازیگر قابل اتکا در پزشکی، به‌مراتب پیچیده‌تر و طولانی‌تر از آن چیزی است که روایت‌های تبلیغاتی و گفتمان‌های فناورمحور ترسیم می‌کنند.

طی سال‌های اخیر، نوعی خوش‌بینی افراطی نسبت به کاربردهای پزشکی هوش مصنوعی شکل گرفته است؛ گویی افزایش توان محاسباتی و دسترسی به داده‌های بزرگ، به‌تنهایی برای خلق یک نظام تصمیم‌یار ایمن کافی است. با این حال، واقعیت آن است که پزشکی صرفاً یک مسئله داده محور نیست، بلکه ترکیبی از قضاوت بالینی، تجربه انسانی، درک زمینه‌ای و مدیریت عدم قطعیت محسوب می‌شود؛ مؤلفه‌هایی که بازتولید کامل آن‌ها در قالب مدل‌های زبانی هنوز با چالش‌های بنیادین مواجه است.

هوش مصنوعی بدون تردید ظرفیت بازآفرینی نظام سلامت را دارد و می‌تواند در میان‌مدت به یکی از پیشران‌های اصلی بهره‌وری در این بخش، از کاهش خطاهای اداری و تسریع فرآیندهای تشخیصی گرفته تا شخصی‌سازی درمان و بهبود مدیریت منابع بیمارستانی، تبدیل شود. اما در مقطع کنونی، فاصله‌ای معنادار میان توانمندی نظری این فناوری و آمادگی عملیاتی آن در محیط‌های واقعی درمان وجود دارد. بسیاری از مدل‌ها در شرایط کنترل‌شده عملکرد قابل قبولی دارند اما هنگامی که با پیچیدگی‌های دنیای واقعی، مانند علائم دارای همپوشانی، سوابق پزشکی ناقص، تفاوت‌های فرهنگی در توصیف درد یا حتی خطاهای ورودی کاربر، مواجه می‌شوند، سطح اطمینان‌پذیری آن‌ها کاهش می‌یابد.

از همین روی، تا زمانی که این شکاف ساختاری پر نشود، اتکا به هوش مصنوعی برای اتخاذ تصمیمات حوزه پزشکی باید با احتیاط حداکثری، نظارت تخصصی و استقرار چارچوب‌های حرفه‌ای و تنظیم‌گرانه همراه باشد؛ چارچوب‌هایی که مسئولیت‌پذیری، قابلیت ممیزی و شفافیت الگوریتمی را تضمین کنند.

این یافته‌ها یادآور ضرورت عبور از فاز «هیجان فناورانه» و ورود به مرحله «بلوغ نهادی» در به‌کارگیری هوش مصنوعی است. نظام‌های سلامت نمی‌توانند صرفاً مصرف‌کننده فناوری باشند؛ آن‌ها باید سازوکارهای ارزیابی بالینی، استانداردهای ایمنی و پروتکل‌های ادغام هوش مصنوعی در فرآیندهای درمانی را به‌صورت فعال طراحی کنند. در غیر این صورت، خطر شکل‌گیری وابستگی زودهنگام به ابزارهایی که هنوز به سطح کافی از قابلیت اتکا نرسیده‌اند، افزایش خواهد یافت.

در نهایت، شاید مهم‌ترین درس این پژوهش آن باشد که در فناوری‌های حساس و پرمخاطره، «توانستن» الزاماً به معنای «آماده بودن» برای یک امر نیست. تاریخ تحول فناوری بارها نشان داده است که فاصله میان امکان فنی و پذیرش ایمن اجتماعی می‌تواند قابل توجه باشد. بنابراین، آینده موفق هوش مصنوعی در پزشکی نه در شتاب‌زدگی برای جایگزینی پزشکان، بلکه در توسعه تدریجی، آزمون‌های میدانی سخت‌گیرانه و شکل‌دهی به مدل‌های همکاری انسان و ماشین رقم خواهد خورد.

عضویت در تلگرام آی تی آنالیز

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا