آیا چتباتهای هوش مصنوعی برای مشاوره سلامت قابل اعتماد هستند؟ | نتایج نگرانکننده یک مطالعه جدید
در شرایطی که بسیاری از کشورها با کمبود منابع درمانی، صفهای انتظار طولانی و افزایش هزینههای بهداشت و درمان روبهرو هستند، بسیاری از مردم برای دریافت مشاورههای پزشکی اولیه به چتباتهای مبتنی بر هوش مصنوعی مانند ChatGPT روی آوردهاند. طبق یک نظرسنجی اخیر، حدود یک نفر از هر شش بزرگسال آمریکایی دستکم ماهی یکبار از چتباتها برای دریافت توصیههای سلامتی استفاده میکند.
اما مطالعهای جدید از دانشگاه آکسفورد نشان میدهد که اعتماد بیش از حد به چتباتهای هوش مصنوعی در زمینه سلامت میتواند خطرناک باشد. علت اصلی این مشکل، ناتوانی کاربران در ارائه اطلاعات دقیق به چتباتها و همچنین ضعف خود این ابزارها در پاسخگویی مؤثر به نیازهای پزشکی است.
ارتباط دوطرفه ناقص بین انسان و چتبات
دکتر آدام مَهدی، مدیر تحصیلات تکمیلی در مؤسسه اینترنت آکسفورد و یکی از نویسندگان این پژوهش، در مصاحبهای با TechCrunch گفت:
«مطالعه ما نشان داد که یک گسست ارتباطی دوطرفه وجود دارد. کاربرانی که از چتباتها استفاده کردند، تصمیمات بهتری نسبت به کسانی که به جستجوی آنلاین یا قضاوت شخصی خود تکیه داشتند، نگرفتند.»
در این تحقیق، بیش از ۱۳۰۰ شرکتکننده در بریتانیا در معرض سناریوهای پزشکی مختلفی قرار گرفتند که توسط گروهی از پزشکان طراحی شده بود. آنها وظیفه داشتند با استفاده از روشهای سنتی و نیز چتباتهایی مانند GPT-4o (مدل پیشفرض ChatGPT)، Command R+ از Cohere و Llama 3 از Meta، بیماری احتمالی را تشخیص داده و بهترین اقدام بعدی (مانند مراجعه به پزشک یا بیمارستان) را انتخاب کنند.
نتیجه: کاهش دقت و درک اشتباه از شدت بیماری
نویسندگان این مطالعه گزارش دادند که استفاده از چتباتها نهتنها دقت شرکتکنندگان در شناسایی بیماریهای صحیح را کاهش داد، بلکه موجب شد آنها شدت واقعی شرایط پزشکی را نیز دستکم بگیرند.
یکی از دلایل این امر، عدم ارائه اطلاعات کافی یا مرتبط توسط کاربران به چتباتها و پاسخهای ترکیبی چتباتها بود. دکتر مَهدی افزود:
«پاسخهای چتباتها اغلب ترکیبی از پیشنهادهای خوب و بد بود. همچنین ارزیابیهای فعلی عملکرد چتباتها، واقعیت تعامل پیچیده با انسان را بازتاب نمیدهد.»
آیا هوش مصنوعی برای کاربردهای پزشکی آماده است؟
در حالی که شرکتهایی مانند اپل، آمازون و مایکروسافت بهطور گسترده در حال توسعه راهکارهای سلامتمحور مبتنی بر هوش مصنوعی هستند، جامعه پزشکی همچنان محتاط است. انجمن پزشکی آمریکا (AMA) استفاده از چتباتهایی مانند ChatGPT را برای کمک به تصمیمات بالینی توصیه نمیکند و شرکتهایی مانند OpenAI نیز هشدار میدهند که نباید برای تشخیص بیماری به خروجیهای چتباتها تکیه کرد.
توصیه نهایی محققان
دکتر مَهدی در جمعبندی این پژوهش خاطرنشان کرد:
«ما توصیه میکنیم افراد برای تصمیمگیریهای بهداشتی به منابع معتبر تکیه کنند. همانطور که داروهای جدید پیش از عرضه باید در آزمایشهای بالینی محک بخورند، چتباتهای هوش مصنوعی نیز باید در محیط واقعی و تحت شرایط انسانی ارزیابی شوند.»
برای بررسی دقیق آخرین یافتهها درباره نقش هوش مصنوعی در سلامت و فناوری، وبلاگ و شبکههای اجتماعی سیف سرویس را دنبال کنید.
No comment