Un estudio encuentra que ChatGPT supera a los médicos al brindar consejos empáticos y de alta calidad a las preguntas de los pacientes

Compartir

La Universidad de California – San Diego, https://medicalxpress.com/news/2023-04-chatgpt-outperforms-physicians-high-quality-empathetic.html

Recopilado por Carlos Cabrera Lozada. Miembro Correspondiente Nacional, ANM puesto 16. ORCID: 0000-0002-3133-5183. 30/04/2023

Ha habido una especulación generalizada sobre cómo los avances en los asistentes de inteligencia artificial (IA) como ChatGPT podrían usarse en medicina.

Un nuevo estudio publicado en JAMA Internal Medicine dirigido por el Dr. John W. Ayers del Instituto Qualcomm dentro de la Universidad de California en San Diego ofrece una visión preliminar del papel que los asistentes de IA podrían desempeñar en la medicina. El estudio comparó las respuestas escritas de los médicos y las de ChatGPT con preguntas de salud del mundo real. Un panel de profesionales de la salud autorizados prefirió las respuestas de ChatGPT el 79 % de las veces y calificó las respuestas de ChatGPT como de mayor calidad y más empáticas.

«Las oportunidades para mejorar la atención médica con IA son enormes», dijo Ayers, quien también es vicejefe de innovación en la División de Enfermedades Infecciosas y Salud Pública Global de la Facultad de Medicina de UC San Diego. «La atención aumentada por IA es el futuro de la medicina».

¿ChatGPT está listo para el cuidado de la salud?

En el nuevo estudio, el equipo de investigación se dispuso a responder la pregunta: ¿Puede ChatGPT responder con precisión a las preguntas que los pacientes envían a sus médicos? En caso afirmativo, los modelos de IA podrían integrarse en los sistemas de salud para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes y aliviar la carga cada vez mayor de los médicos.

«ChatGPT podría aprobar un examen de licencia médica», dijo el coautor del estudio, el Dr. Davey Smith, médico científico, codirector del Instituto de Investigación Clínica y Traslacional Altman de UC San Diego y profesor de la Escuela UC San Diego. of Medicine, «pero responder directamente a las preguntas de los pacientes con precisión y empatía es un juego de pelota diferente».

«La pandemia de COVID-19 aceleró la adopción de la atención médica virtual», agregó el coautor del estudio, el Dr. Eric Leas, afiliado al Instituto Qualcomm y profesor asistente en la Escuela de Salud Pública y Ciencias de la Longevidad Humana Herbert Wertheim de UC San Diego. «Si bien esto facilitó el acceso a la atención para los pacientes, los médicos se ven agobiados por un aluvión de mensajes electrónicos de pacientes que buscan asesoramiento médico que han contribuido a niveles récord de agotamiento médico».

Diseño de un estudio para probar ChatGPT en un entorno de atención médica

Para obtener una muestra amplia y diversa de preguntas sobre atención médica y respuestas de médicos que no contenían información personal identificable, el equipo recurrió a las redes sociales donde millones de pacientes publican preguntas médicas a las que los médicos responden: AskDocs de Reddit .

r/AskDocs es un subreddit con aproximadamente 452 000 miembros que publican preguntas médicas y profesionales de la salud verificados envían respuestas. Si bien cualquiera puede responder a una pregunta, los moderadores verifican las credenciales de los profesionales de la salud y las respuestas muestran el nivel de credenciales del encuestado. El resultado es un conjunto amplio y diverso de preguntas médicas de los pacientes y las correspondientes respuestas de profesionales médicos autorizados.

Si bien algunos pueden preguntarse si los intercambios de preguntas y respuestas en las redes sociales son una prueba justa, los miembros del equipo señalaron que los intercambios reflejaban su experiencia clínica.

El equipo muestreó aleatoriamente 195 intercambios de AskDocs en los que un médico verificado respondió a una pregunta pública. El equipo proporcionó la pregunta original a ChatGPT y le pidió que escribiera una respuesta. Un panel de tres profesionales de la salud con licencia evaluó cada pregunta y las respuestas correspondientes y desconocía si la respuesta procedía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían.

El panel de evaluadores de profesionales de la salud prefirió las respuestas de ChatGPT a las respuestas de los médicos el 79 % de las veces.

«Los mensajes de ChatGPT respondieron con información matizada y precisa que a menudo abordaba más aspectos de las preguntas del paciente que las respuestas del médico», dijo Jessica Kelley, enfermera practicante de la firma Human Longevity de San Diego y coautora del estudio.

Además, las respuestas de ChatGPT se calificaron significativamente más altas en calidad que las respuestas de los médicos: las respuestas de buena o muy buena calidad fueron 3,6 veces más altas para ChatGPT que para los médicos (médicos 22,1 % versus ChatGPT 78,5 %). Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9,8 veces más altas para ChatGPT que para los médicos (médicos 4,6 % versus ChatGPT 45,1 %).

«Nunca imaginé decir esto», agregó el Dr. Aaron Goodman, profesor clínico asociado de la Facultad de Medicina de UC San Diego y coautor del estudio, «pero ChatGPT es una receta que me gustaría enviar a mi bandeja de entrada. La herramienta transformar la forma en que apoyo a mis pacientes».

Aprovechamiento de asistentes de IA para mensajes de pacientes

«Si bien nuestro estudio enfrentó a ChatGPT con los médicos, la solución definitiva no es descartar a su médico por completo», dijo el Dr. Adam Poliak, profesor asistente de Ciencias de la Computación en Bryn Mawr College y coautor del estudio. «En cambio, un médico que aprovecha ChatGPT es la respuesta para una atención mejor y empática».

«Nuestro estudio es uno de los primeros en mostrar cómo los asistentes de IA pueden resolver potencialmente los problemas de prestación de atención médica del mundo real», dijo el Dr. Christopher Longhurst, director médico y director digital de UC San Diego Health. «Estos resultados sugieren que herramientas como ChatGPT pueden redactar de manera eficiente consejos médicos personalizados de alta calidad para que los revisen los médicos, y estamos comenzando ese proceso en UCSD Health».

El Dr. Mike Hogarth, médico bioinformático, codirector del Instituto de Investigación Clínica y Traslacional Altman de la UC San Diego, profesor de la Facultad de Medicina de la UC San Diego y coautor del estudio, agregó: «Es importante que la integración de la IA asistentes en los mensajes de atención médica en el contexto de un ensayo controlado aleatorio para juzgar cómo el uso de asistentes de IA afecta los resultados tanto para los médicos como para los pacientes».

Además de mejorar el flujo de trabajo, las inversiones en la mensajería del asistente de IA podrían afectar la salud del paciente y el desempeño del médico.

Deja un comentario

Academia Nacional de Medicina