آینده دستیارهای سلامت مجازی

تصویر دانیال قرائی

دانیال قرائی

دستیار‌های مجازی مانند Alexa و Siri برای کارهای عمومی در همه جا مورد استفاده قرار گرفته اند، اما برای ارائه اطلاعات دقیق و مرتبط بالینی در حوزه مراقبت های بهداشتی با مشکل مواجه شده اند. یک مطالعه در سال 2021 نشان داد که دستیارهای مجازی محبوب در پاسخ به سؤالات مربوط به افسردگی پس از زایمان عملکرد ضعیفی داشتند و تنها 29 درصد از پاسخ ها از نظر بالینی مرتبط بودند.
این موضوع محدودیت عمده دستیارهای مجازی فعلی را هنگام برخورد با موضوعات پیچیده و ظریف مراقبت های بهداشتی که نیاز به درک عمیق دارند، برجسته می کند. با این حال، مدل‌های زبانی بزرگ (LLM) مانند GPT-4، که بر روی مجموعه داده‌های وسیعی برای درگیر شدن در گفتگوها و استدلال‌های ظریف آموزش دیده‌اند، ممکن است راه حل این مشکل باشند.
در یک مطالعه در سال 2023، GPT-4 پاسخ‌های دقیق‌تر و مرتبط‌تری را به همان پرسش‌های مربوط به افسردگی پس از زایمان در مقایسه با دستیارهای مجازی قبلی نشان داد. این پیشرفت نشان دهنده یک “تغییر پارادایم” است که در آن LLM ها می توانند ابزارهای سلامت مجازی را از ارائه دهندگان اطلاعات به دستیارهای دیجیتال قابل اعتماد بالینی تبدیل کنند که قادر به ارزیابی، توصیه ها و مداخلات شخصی سازی شده هستند.

تغییر پارادایم

تفاوت فاحش در عملکرد بین دستیارهای مجازی سنتی و LLMهایی مانند GPT-4 در مطالعات افسردگی پس از زایمان، یک تغییر پارادایم ملموس در افق ابزارهای سلامت دیجیتال را برجسته می کند.

در مطالعه‌ای در سال 2021 که Alexa، Siri، دستیار گوگل و دیگران را ارزیابی کرد، میانگین نمره قابلیت اطمینان بین متخصصان پزشکی که پاسخ‌ها را ارزیابی می‌کردند 0.87 بود – سطح قابل قبولی از اجماع. با این حال، با GPT-4 در سال 2023، این قابلیت اطمینان به نمره کامل 1.0 رسید، که بر سازگاری و صحت بالینی پاسخ‌های LLM تأکید می‌کند.

علاوه بر این، خروجی‌های GPT-4 نه تنها اطلاعاتی را ارائه می‌دهند، بلکه توصیه می‌کند در صورت لزوم با ارائه‌دهندگان مراقبت‌های بهداشتی مشورت کنند – یک لایه ایمنی حیاتی که اغلب در دستیارهای مجازی فعلی وجود ندارد.

این جهش در دقت و قابلیت اطمینان نشان می‌دهد که چگونه مدل‌های زبانی بزرگ این پتانسیل را دارند که شکاف بین دستیارهای مجازی طراحی‌شده برای استفاده عمومی و ابزارهای هوش مصنوعی  را که قادر به درک زمینه‌های پزشکی ظریف هستند، پر کنند.

با بهره گیری از داده های آموزشی گسترده آنها، LLM ها می توانند در جریان گفت و گوهای طبیعی مانند گفتگو با متخصصان پزشکی انسانی شرکت کنند. این راه را برای دستیارهای سلامت مجازی هموار می‌کند که می‌توانند به طور قابل اعتمادی از تصمیم‌گیری پشتیبانی کنند، راهنمایی شخصی ارائه کنند، و حتی زمانی که موقعیت‌ها نیاز به مراقبت بالینی حرفه‌ای دارند، به بیمار و سیستم هشدار دهند.

این تغییر پارادایم نه تنها نشان دهنده یک پیشرفت تدریجی است، بلکه به یک تحول اساسی در نحوه عملکرد هوش مصنوعی مکالمه محور به عنوان همراهان سلامت دیجیتال قابل اعتماد و هماهنگ با نیازهای هر فرد در طول زمان اشاره می کند.

گسترش نقش دستیار‌های مجازی

قابلیت‌های برتر مدل‌های زبانی بزرگ به ما این امکان را می‌دهد که نقش‌های بالقوه‌ای را که دستیارهای مجازی می‌توانند در مراقبت‌های بهداشتی فراتر از ارائه اطلاعات ایفا کنند، بازنگری کرده و گسترش دهیم.

دکتر سزگین در سرمقاله خود طیفی را پیشنهاد می‌کند که سطوح مختلف خدمات را برای دستیارهای مجازی بر اساس ریسک، ارزش و تأثیر مرتبط با آن‌ها مشخص می‌کند. در حال حاضر، اکثر دستیارهای مجازی در سطوح “اطلاعات” و “کمک” کار می کنند – رسیدگی به پرس و جوها، تنظیم یادآورها و غیره.

با این حال، دقت بالینی و درک زمینه‌ای که توسط LLMها مانند GPT-4 نشان داده شده است فرصت‌هایی را برای حرکت به سمت سطوح خدمات با ریسک بالاتر اما با ارزش بالاتر مانند “ارزیابی” و “حمایت” باز می‌کند.

در سطح ارزیابی، دستیارهای مجازی مبتنی بر LLM می‌توانند به طور بالقوه در شناسایی، تشخیص و پیش‌بینی شرایط بر اساس ورودی‌های بیمار و داده‌های نشانگر زیستی دیجیتال کمک کنند. درک زبان آنها می تواند گفتگوی طبیعی را برای ارزیابی علائم تسهیل کند.

حتی آنها ممکن است بتوانند حداقل به عنوان یک تریاژ اولیه، پشتیبانی و مداخلات بالینی را ارائه دهند – ابزارهای درمانی، توصیه های سبک زندگی، مسیرهای مراقبت پیشنهادی و موارد دیگر را توصیه کنند، در حالی که موقعیت های پرخطر را برای مشاوره پزشکی حرفه‌ای علامت گذاری کنند.

این یک تضاد قابل توجه با دستیارهای مجازی فعلی است که به دلیل توانایی های نسبتاً محدود آنها برای چنین عملکردهای مراقبت های بهداشتی پرمخاطبی به آنها اعتماد نمی شود.

در نهایت، دکتر سزگین تصور می‌کند که این دستیارهای سلامت مجازی بسیار توانا به بخش‌های جدایی‌ناپذیر «اکوسیستم‌های سلامت دیجیتال» تبدیل می‌شوند که گفت‌وگوی هوش مصنوعی و داده‌های بیمار را ترکیب می‌کنند تا نظارت و پشتیبانی سلامت چند بعدی و شخصی‌‌سازی شده را فعال کنند.

دستیابی به این سطح از مراقبت های بهداشتی در مقیاس می تواند تأثیرات عمیقی داشته باشد – افزایش دسترسی، کاهش هزینه ها و فشار بر سیستم های مراقبت های بهداشتی، و تسهیل مداخلات پیشگیرانه قبل از تشدید شرایط.

البته، این آینده یک آینده بلندپروازانه با چالش های فنی و اخلاقی قابل توجهی است. اما قابلیت های پیشرفته زبانی هوش مصنوعی که توسط LLM ها نشان داده شده است، مسیری واقع بینانه برای تبدیل شدن دستیارهای سلامت مجازی به شرکای بسیار تأثیرگذارتر در سلامت شخصی ما فراهم می کند.

توسعه مسئولانه

همانطور که پتانسیل دستیارهای سلامت مجازی مبتنی بر LLM هیجان انگیز است، بسیار مهم است که توسعه و ادغام آنها در برنامه های مراقبت بهداشتی از یک رویکرد سنجیده، مسئولانه و بین رشته ای پیروی کند.

دکتر سزگین در سرمقاله خود بر ضرورت تسهیل “دسترسی دموکراتیک و همکاری بین رشته ای” هنگام ایجاد این قابلیت های هوش مصنوعی برای موارد استفاده از مراقبت های بهداشتی تاکید می کند. این به معنای گرد هم آوردن ذینفعان مختلف – فن‌آوران، متخصصان اخلاق، پزشکان، محققان، نمایندگان بیماران و دیگران است.

تنها از طریق چنین همکاری فراگیر می‌توانیم اطمینان حاصل کنیم که برنامه‌های مبتنی بر LLM با اصول اخلاقی، دستورالعمل‌های نظارتی، و بهترین شیوه‌های حفظ حریم خصوصی/ایمنی برای مراقبت‌های بهداشتی همسو هستند.

پیاده‌سازی هوش مصنوعی در مراقبت‌های بهداشتی مستلزم نظارت دقیق در زمینه‌های کلیدی است: ایجاد دستورالعمل‌های اخلاقی برای شفافیت و انصاف، اطمینان از مدل‌های حاکمیتی قوی برای پاسخگویی و مدیریت داده‌ها، اجرای اقدامات حفظ حریم خصوصی و محدودیت‌های ایمنی، ارزیابی مستمر تجربه کاربر، و همکاری با قانون‌گذاران برای انطباق با فناوری در حال تحول.

در حالی که قابلیت‌های فنی LLM چشمگیر است، عدم رعایت این بررسی‌های اخلاقی، عملیاتی و نظارتی می‌تواند به سرعت اعتماد کاربران را تضعیف کند و مانع پذیرش این ابزارهای امیدوارکننده هوش مصنوعی در مراقبت‌های بهداشتی شود.

دکتر سزگین استدلال می کند که این “همکاری بین رشته ای قوی” برای پیمایش پیچیدگی های ادغام مدل های زبانی قدرتمند در مراقبت های بهداشتی به شیوه ای که حداکثر سودمند باشد و با نیازهای متنوع همه ذینفعان درگیر باشد، حیاتی است.

مسیر رو به جلو

پتانسیل امیدوارکننده مدل های زبان بزرگ برای بازتعریف دستیارهای سلامت مجازی واضح است. اما مانند هر فناوری قدرتمند و مخرب، مسیر تحقق این پتانسیل مملو از چالش‌هایی است که باید به دقت مورد بررسی قرار گیرند.

از توسعه چارچوب‌های حاکمیتی و نظارتی مناسب، تا تضمین حریم خصوصی و اقدامات ایمنی قوی، تا تأیید مستمر اثربخشی در دنیای واقعی از طریق تحقیقات کاربر محور – موانع اخلاقی و عملی چند وجهی وجود دارد که باید از آنها عبور کرد.

غلبه بر این موانع به تلاش های متعهد و هماهنگ در حوزه های مختلف و گروه های ذینفع نیاز دارد. شرکت های توسعه دهنده باید شفافیت و همکاری بین رشته ای با ارائه دهندگان مراقبت های بهداشتی، متخصصین اخلاق، سیاست گذاران و نمایندگان بیماران را پذیرا باشند. آنها باید با هم کار کنند تا اطمینان حاصل شود که ادغام قابلیت های LLM از طریق یک فرآیند مسئولانه و تنظیم شده که رفاه کاربر را بر منافع تجاری اولویت می دهد، اتفاق می افتد.

به موازات آن، محققان باید عمیق‌تر به محک زدن این سیستم‌های هوش مصنوعی در سناریوهای بالینی مختلف از طریق کارآزمایی‌های تصادفی‌سازی، کنترل‌شده و دقیق‌تر بپردازند.

در سمت ارائه‌دهنده مراقبت‌های بهداشتی، ارتقاء مهارت پزشکان و دیگر متخصص‌ها در کار مؤثر با دستیارهای هوش مصنوعی، کلید پذیرش موفقیت‌آمیز در دنیای واقعی و بهینه‌سازی گردش‌های کاری مشترک انسان و هوش مصنوعی خواهد بود.

شاید مهم‌تر از همه، صدای بیمار باید در تمام این تلاش‌ها نقش محوری داشته باشد. دیدگاه آنها در مورد تجربیات شخصی، دسترسی و ملاحظات اخلاقی در مورد هوش مصنوعی در مراقبت های بهداشتی باید به هدایت تصمیم گیری در هر مرحله کمک کند.

بدون شک، راه درازی است که با موانع فنی، مقرراتی و اجتماعی و فنی برای رفع آن پر شده است. اما وعده باورنکردنی خدمات سلامت دیجیتالی قابل دسترس، مقرون به صرفه و شخصی‌شده مبتنی بر هوش مصنوعی است که می‌تواند پیشگیری از بیماری، مدیریت مراقبت‌های مزمن و بهبود نتایج کلی سلامت را متحول کند.

با همکاری با یکدیگر در سراسر رشته ها از طریق رویکردهای فراگیر، اخلاقی و مبتنی بر شواهد، می توانیم با مسئولیت پذیری پتانسیل مدل های زبانی بزرگ را برای بازتعریف چگونگی افزایش سلامت و رفاه انسان تبدیل به واقعیت کنیم.

ارسال دیدگاه