SciELO - Scientific Electronic Library Online

 
vol.159 issue5Artificial intelligence and biomedical research: reflections from the viewpoint of bioethicsConfirmation of the presence of serotonergic cells in the fetal cerebral cortex in cultures and in situ author indexsubject indexsearch form
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Gaceta médica de México

On-line version ISSN 2696-1288Print version ISSN 0016-3813

Gac. Méd. Méx vol.159 n.5 Ciudad de México Sep./Oct. 2023  Epub Feb 20, 2024

https://doi.org/10.24875/gmm.230001671 

Artículos de revisión

ChatGPT: oportunidades y riesgos en la asistencia, docencia e investigación médica

ChatGPT: opportunities and risks in the fields of medical care, teaching, and research

Carlos Gutiérrez-Cirlos1  2  * 

Diego L. Carrillo-Pérez2  3 

Jorge L. Bermúdez-González2 

Irving Hidrogo-Montemayor4 

Raúl Carrillo-Esper5 

Melchor Sánchez-Mendiola6  7 

1Facultad de Medicina, Secretaría de Enseñanza Clínica, Internado Médico y Servicio Social, Universidad Nacional Autónoma de México, Ciudad de México

2Servicio de Medicina Interna, Dirección Médica, Instituto Nacional de Ciencias Médicas y Nutrición "Salvador Zubirán", Ciudad de México

3Escuela de Medicina y Ciencias de la Salud, Tecnológico de Monterrey, Ciudad de México

4División de Innovación con Tecnologías Emergentes Tecnológico de Monterrey, Monterrey, Nuevo Léon

5Academia Nacional de Medicina de México, Ciudad de México

6División de Estudios de Posgrado, Facultad de Medicina, Universidad Nacional Autónoma de México, Ciudad de México

7Coordinación de Universidad Abierta, Innovación Educativa y Educación a Distancia, Dirección de Evaluación Educativa, Universidad Nacional Autónoma de México, Ciudad de México. México


Resumen

ChatGPT es un asistente virtual con inteligencia artificial que utiliza lenguaje natural para comunicarse, es decir, mantiene conversaciones como las que se tendrían con otro humano. Puede aplicarse en educación a todos los niveles, que incluye la educación médica, tanto para la formación, la investigación, la escritura de artículos científicos, la atención clínica y la medicina personalizada. Puede modificar la interacción entre médicos y pacientes para mejorar los estándares de calidad de la atención médica y la seguridad, por ejemplo, al sugerir medidas preventivas en un paciente que en ocasiones no son consideradas por el médico por múltiples causas. Los usos potenciales del ChatGPT en la educación médica, como una herramienta de ayuda en la redacción de artículos científicos, un asistente en la atención para pacientes y médicos para una práctica más personalizada, son algunas de las aplicaciones que se analizan en este artículo. Los aspectos éticos, originalidad, contenido inapropiado o incorrecto, citas incorrectas, ciberseguridad, alucinaciones y plagio son ejemplos de las situaciones a tomar en cuenta al usar las herramientas basadas en inteligencia artificial en medicina.

PALABRAS CLAVE ChatGPT; Cuidado del paciente; Educación médica; Errores médicos; Inteligencia artificial; Medicina de precisión

Abstract

ChatGPT is a virtual assistant with artificial intelligence (AI) that uses natural language to communicate, i.e., it holds conversations as those that would take place with another human being. It can be applied at all educational levels, including medical education, where it can impact medical training, research, the writing of scientific articles, clinical care, and personalized medicine. It can modify interactions between physicians and patients and thus improve the standards of healthcare quality and safety, for example, by suggesting preventive measures in a patient that sometimes are not considered by the physician for multiple reasons. ChatGPT potential uses in medical education, as a tool to support the writing of scientific articles, as a medical care assistant for patients and doctors for a more personalized medical approach, are some of the applications discussed in this article. Ethical aspects, originality, inappropriate or incorrect content, incorrect citations, cybersecurity, hallucinations, and plagiarism are some examples of situations to be considered when using AI-based tools in medicine.

KEYWORDS ChatGPT; Patient care; Medical education; Medical errors; Artificial intelligence; Precision medicine

Oráculo: especialmente en la antigüedad grecorromana, respuesta que una deidad daba a una consulta, a través de un intermediario y en un lugar sagrado

DICCIONARIO DE LA LENGUA ESPAÑOLA

Haz de tu propia naturaleza, y no de los consejos de los otros, tu guía en la vida

RESPUESTA A CICERÓN POR EL ORÁCULO DE DELFOS SOBRE POMPEYO EL GRANDE

¿Qué es ChatGPT?

La palabra ChatGPT es el acrónimo de Chat Generative Pretrained Transformer, herramienta creada por la empresa OpenAI (San Francisco, California, Estados Unidos) y puesta a disposición del público el 30 de noviembre de 2022. Es un chatbot avanzado que utiliza un sistema de inteligencia artificial (IA) basado en el aprendizaje de máquinas, aprendizaje profundo con redes neuronales y modelos masivos de lenguaje (large language models), con una interfaz de chat con procesamiento de lenguaje natural que responde preguntas de manera similar a como lo hacen los humanos. ChatGPT funciona con base en la predicción de cuál palabra es la que más probablemente siga a otra, utiliza el preentrenamiento que ha recibido con grandes volúmenes de información disponible en la red, con lo que produce cadenas de textos aparentemente sensatos, informados y coherentes. Esta herramienta de IA ha tomado al mundo por sorpresa: alcanzó 100 millones de usuarios solo dos meses después de su lanzamiento y constituye, por ahora, la innovación tecnológica adoptada más rápidamente en la historia de la humanidad.1

En el área médica, las aplicaciones de ChatGPT son prometedoras y pueden inducir un cambio dramático en la educación, investigación y práctica médica. Sin embargo, la utilización de este chatbot debe llevarse a cabo con extrema precaución al tomar en cuenta sus riesgos y limitaciones actuales.2 Al realizar una búsqueda en PubMed con el término "ChatGPT", a fines de 2022 era posible identificar cuatro referencias, pero para junio de 2023 se habían publicado 624 artículos. En esta revisión focalizada de la literatura relacionada con ChatGPT, IA y medicina, se propone abordar algunas de los aspectos más importantes relacionados con el uso de esta herramienta para la educación, investigación y redacción de artículos científicos.

ChatGPT en la educación médica

Las potenciales ventajas de ChatGPT en la educación médica incluyen la asistencia al profesor, el aprendizaje personalizado, la asistencia en procesos de investigación, el acceso rápido a la información, la generación de escenarios clínicos, además de la creación de resúmenes, cuestionarios, tarjetas didácticas y traducciones que ayuden a disminuir la barrera lingüística del aprendizaje. ChatGPT puede ser útil en los campos de la educación médica, aunque se debe aprender a usar de manera correcta (generar prompts o preguntas correctas) ya que como cualquier herramienta tendrá beneficios, limitaciones y riesgos, pero no reemplaza el papel del médico como educador.3

El 14 abril de 2023, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó una guía rápida para el uso de IA y ChatGPT en la educación superior que incluye aplicaciones, retos e implicaciones éticas de uso. La seguridad para el uso de ChatGPT como herramienta depende de la importancia de que el resultado sea verdadero y la experiencia del usuario para verificar que el resultado sea preciso. Antes de considerar el uso de chatbots con IA en la práctica médica, se propone utilizar el diagrama de flujo descrito por Aleksandr Tiulkanov y sugerido por la UNESCO para el uso de ChatGPT en el proceso educativo (Figura 1).4

Figura 1 Diagrama de flujo descrito por Aleksandr Tiulkanov y sugerido por la UNESCO para el uso de ChatGPT en el proceso educativo.4 

El inadecuado uso de esta herramienta justifica la creciente preocupación de las comunidades académicas. En una encuesta realizada en Estados Unidos a 1000 estudiantes universitarios, se encontró que 30 % había usado ChatGPT para realizar tareas y 60 % de este grupo lo usaba en más de la mitad de sus tareas, aun cuando tres de cada cuatro estudiantes consideraban que se trataba de una trampa.5 Lo anterior ha llevado a que en múltiples universidades se haya bloqueado su uso.6 En el caso de los médicos en formación, uno de los riesgos importantes es que sean influidos por ChatGPT y malinterpreten el conocimiento médico o, incluso, tomen decisiones clínicas sin la evaluación crítica y validación independiente de la información.7 La capacidad de ChatGPT para obtener puntuaciones satisfactorias en exámenes médicos (por ejemplo, en el Examen de Licencia Médica de los Estados Unidos o USMLE por sus siglas en inglés),8 puede resultar también en deshonestidad académica.

Las anteriores circunstancias resaltan la urgente necesidad de utilizar herramientas de detección de uso de IA (como GTPZero)9 —adoptadas actualmente por múltiples instituciones educativas —, definir políticas de uso de estas herramientas en las universidades y hospitales, enseñar a los alumnos el uso de la IA de forma ética y responsable, agregar a los planes de estudio de las carreras de la salud materias de IA, pero, sobre todo, innovar en nuevas formas de evaluación que prioricen el razonamiento clínico y el pensamiento crítico sobre la memorización.10

En la Facultad de Medicina de la Universidad Nacional Autónoma de México, a partir del Plan de Estudios 2010 de la carrera de médico-cirujano se incluyeron temas como telemedicina, aprendizaje en línea e inteligencia artificial, para favorecer el aprendizaje de los aspectos mencionados.11 El advenimiento de ChatGPT es también una oportunidad para un ejercicio de autorreflexión de cómo formamos y evaluamos a nuestros estudiantes en la actualidad, y de cómo nuestro proceso de enseñanza también debe cambiar, con mayor énfasis en el aprendizaje de habilidades de interacción humana como comunicación, empatía, liderazgo, etcétera, que tengan un impacto positivo en la relación médico-paciente y que difícilmente serán reemplazadas por la IA,12,13 si bien algunas respuestas de ChatGPT podrían ser más empáticas que las de algunos médicos.14

ChatGPT y la redacción científica

El uso de ChatGPT en la redacción médica científica también es prometedor, pues ofrece ventajas como mejorar la redacción de artículos científicos, analizar y sintetizar grandes cantidades de información, corregir errores gramaticales y ortográficos, traducir, revisar y editar manuscritos. Poco tiempo después del lanzamiento de ChatGPT, aparecieron publicaciones en las que se citaba a esta herramienta como autor; sin embargo, estos chatbots no son una entidad legal y, por lo tanto, no pueden cumplir con el requisito de autoría para asumir la responsabilidad personal por el contenido de un artículo.15 La comunidad científica levantó rápidamente la voz al respecto, con reconocimiento de las ventajas, pero también de los riesgos que implica el uso de esta herramienta en la redacción científica. El plagio es una posibilidad; ya que el desempeño de ChatGPT en la redacción médica es eficiente, se pueden producir resúmenes científicos que tienen la calidad similar a la de un humano. Gao et al. evaluaron la capacidad de los editores para identificar resúmenes creados por ChatGPT a partir de los títulos de artículos médicos publicados en revistas de alto impacto; sorprendentemente, solo detectaron 68 % de los resúmenes creados por esta IA.16,17 Algunas revistas como Science actualizaron sus políticas para especificar que no puede utilizarse texto generado por ChatGPT (o cualquier otra herramienta de IA) y que este no puede ser incluido como autor. Para H. Holden Thorp, editor en jefe del grupo de revistas de Science, ChatGPT "es divertido, pero no un autor", ya que si bien las respuestas generadas suenan plausibles, al analizarlas podrían ser incorrectas o sin sentido. Considera que, por el momento, los documentos generados por ChatGPT o cualquier herramienta de IA no pueden ser considerados en sus publicaciones, pues el trabajo no es "original", con todo el significado que la palabra incluye.18

Dado que ChatGPT emplea textos existentes para generar nuevos escritos sin citar fuentes, el resultado puede constituir un plagio. Además, los chatbots tienen la tendencia a formular afirmaciones completamente falsas. Con el riesgo de errores en los textos, resulta paradójico que tanto los modernos detectores automatizados de plagio como experimentados revisores no sean hábiles para detectar textos académicos generados por chatbots.19 Así como la tecnología avanza, las políticas editoriales de las revistas también tendrán que evolucionar, incluyendo mejores herramientas de detección de IA en los manuscritos enviados para publicación.20,21 El 20 de enero de 2023, la Asociación Mundial de Editores Médicos publicó recomendaciones sobre el uso de ChatGPT y chatbots en publicaciones científicas,22 las cuales se resumen en la Tabla 1.

Tabla 1 Recomendaciones de la Asociación Mundial de Editores Médicos sobre el uso de ChatGPT o chatbots en relación con publicaciones científicas22 

– Los chatbots no pueden ser citados como autores.
– Los autores deben ser transparentes cuando usen chatbots y proporcionar información sobre cómo se usaron.
– Los autores son responsables del trabajo realizado por un chatbot en su artículo (incluida la precisión de lo que se presenta y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluido el material producido por el chatbot).
– Los editores necesitan herramientas apropiadas que les ayuden a detectar contenido generado o alterado por IA, las cuales deben ponerse a su disposicion, independientemente de su capacidad de pago.

El vocabulario usado por ChatGPT es elocuente, con un tono convencional y fácil de leer y puede ser utilizado como un intermediario en una sesión para generar ideas sobre el inicio de un tema de investigación. Las ventajas y limitaciones (que incluyen aspectos éticos) se resumen en la Tabla 2.23

Tabla 2 Ventajas y limitaciones de ChatGPT en las publicaciones científicas23 

Ventajas y aplicaciones Limitaciones y aspectos éticos
Produce textos con estructura formal. Puede violar las leyes de derechos de autor.
El vocabulario es elocuente. Puede generar conflictos medicolegales y de credibilidad científica.
Puede usarse como un motor de búsqueda eficiente y rápido. Puede producir resultados imprecisos.
La versión de ChatGPT4 busca y analiza la literatura disponible (hasta 2021). Puede dar resultados sesgados y peligrosos.
Los grupos de investigación lo utilizan como una herramienta inicial de búsqueda y síntesis de la información. No distingue entre investigación reproducible y no reproducible.
Puede ser un "conversador más" en la generación de proyectos de investigación. Puede dar referencias no relevantes.

En junio de 2023, la Comisión Nacional de Bioética de México publicó un documento "Bioética de la inteligencia artificial en salud",24 en el que, entre otros aspectos, se señala el compromiso de los profesionales de la salud con respecto a las tecnologías de IA para que:

  • - Su uso no aumente las brechas de inequidad social y económica entre las poblaciones.

  • - Proteja, con respecto a la salud y la investigación, los derechos de propiedad, integridad y privacidad de la información personal.

  • - Cada profesional de la salud se responsabilice de su operación, seguimiento y tecnovigilancia.

  • - Se promuevan estándares internacionales de seguridad, eficacia y eficiencia en el desarrollo de tecnologías relacionadas con la IA.

  • - Ante la posibilidad de daño a la integridad física, social y moral de las personas, el desarrollo de tecnologías relacionadas con la IA debe considerar principios éticos y estándares de derechos en la configuración de los algoritmos de procesamiento, con la participación de los comités de ética en investigación con monitorización permanente a lo largo de su implementación.

  • - En los casos en los que se deriven consecuencias negativas de la aplicación de la IA, debe existir una cadena de responsabilidad clara.

En cuanto al marco normativo, se requiere de una revisión permanente a fin de mantener actualizadas las disposiciones relativas a la responsabilidad de los desarrolladores en el diseño, implementación y mantenimiento de los sistemas de IA en investigación y en salud.

Específicamente en los procesos de machine learning, se debe establecer un mecanismo de revisión de la información a fin de asegurar su calidad, veracidad, originalidad o uso de información incorrecta o peligrosa.

ChatGPT ofrece ventajas y desventajas: si bien las respuestas pueden ser útiles, también incluyen sesgos, referencias inexistentes y pueden perpetuar estereotipos sexuales, como cuando se realiza la búsqueda de imágenes de "matrimonio" o "delincuente" en alguna de las herramientas de búsqueda actuales. Las preguntas sencillas, sin un entrenamiento previo del ChatGPT, también producen respuestas iguales y no del todo ciertas, por lo que por ahora es necesaria la verificación humana del texto. Por lo anterior, se deben desarrollar reglas para verificar la integridad, trasparencia y honestidad de los textos enviados a las revistas científicas o, como se mencionó, que sean originales. Lo anterior puede resumirse en una serie de preguntas que deberían debatirse a nivel internacional:25

  • - ¿Qué tareas de investigación deben o no otorgarse a los sistemas de IA y a ChatGPT?

  • - ¿Qué aptitudes y características académicas son todavía esenciales para los investigadores?

  • - ¿Qué pasos del proceso de investigación pueden ser asistidos por la IA y cómo esta puede incorporarse a la formación de nuevos investigadores?

  • - ¿Cómo deben modificarse las políticas de integridad de la investigación?

  • - ¿Cómo los pocos grupos que desarrollan la inteligencia artificial pueden garantizar que las respuestas que dan a la ciencia sean veraces?

  • –¿Qué normas de calidad cabe esperar de la inteligencia artificial, por ejemplo, transparencia, exactitud, imparcialidad y acreditación de fuentes, además de aclarar el conflicto de interés de los desarrolladores?

  • - ¿Cómo un investigador puede estar seguro de que la IA promoverá la equidad y disminuirá la desigualdad en la ciencia?

  • - ¿Los principios son iguales para las revistas de acceso abierto que para las que no lo son?

  • - ¿Qué implicaciones jurídicas tienen la IA y ChatGPT en la práctica científica? Lo anterior relacionado con patentes, derechos de autor y propiedad intelectual.

Uso de ChatGPT en la asistencia médica

Primera ley: un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño

ISAAC ASIMOV

Documentación y elaboración de notas médicas

Así como se sugiere que ChatGPT puede participar como un asesor en el inicio de un proyecto científico, también se ha propuesto que tiene el potencial de mejorar la interacción entre el paciente y el médico, debido a que puede ayudar a la elaboración de historias clínicas, notas médicas y resúmenes de egreso de los pacientes.26,27 Lo anterior puede disminuir los costos de la atención médica, con ahorro de tiempo para médicos y enfermos.28

Toma de decisiones, razonamiento clínico y respuestas automáticas a preguntas frecuentes

ChatGPT puede ayudar a los médicos a mejorar la toma de decisiones y el razonamiento clínico, al actuar como un consultante más, que, con la información obtenida de la historia clínica del paciente, puede dar soporte con sugerencias de diagnósticos más probables y diagnósticos diferenciales, además de solicitud de estudios paraclínicos, escrutinios de cáncer, cálculo de riesgo cardiovascular y tratamiento con la prevención de interacciones farmacológicas y alergias documentadas. Otra de las potenciales ventajas para los médicos y pacientes es la mejora de la comunicación con respuestas automáticas a preguntas frecuentes en relación con la programación de citas, solicitudes de laboratorio y recetas emitidas en la última consulta.26-28

La conversación que un paciente puede tener con ChatGPT no es la misma que la de un médico o un especialista, y las respuestas pueden generar que el paciente considere que las formula un experto. De ahí la importancia de cómo preguntar, quién pregunta y cómo entrenar a ChatGPT para que conteste de forma más precisa y sin el efecto de falsa percepción. Lo anterior se ha probado con la transcripción de conversaciones médicas de menor a mayor complejidad o con la respuesta a exámenes de certificación de médicos.29 El aprendizaje de ChatGPT para la interpretación de electrocardiogramas, imágenes de radiología, de la retina o de la piel ayuda al médico a identificar diagnósticos no habituales. Empleado como una herramienta de ayuda, ChatGPT puede ser de gran apoyo en la toma de decisiones en medicina; usado de forma incorrecta, puede causar daño. Así como aprendemos de estas nuevas tecnologías, las nuevas tecnologías ahora aprenden de nosotros. Estamos en un periodo de adaptación.30 El desempeño de ChatGPT para señalar diagnósticos diferenciales de los ejercicios clínico-patológicos de New England Journal of Medicine parece ser bueno, con el diagnóstico definitivo incluido en los diferenciales hasta en 64 % de las ocasiones, lo que sugiere que puede incluirse como una herramienta más en los sistemas conocidos de razonamiento clínico.31

Fortalecimiento de la medicina preventiva

Uno de los problemas de la atención médica es que se encuentra fuertemente centrada en el tratamiento de enfermedades y padecimientos ya establecidos y no en la medicina preventiva, donde los chatbots pueden ayudar al médico al ofrecer, durante la consulta médica, intervenciones de promoción de la salud personalizadas y atractivas que promuevan cambios de comportamiento saludable. En una revisión sistemática de 15 estudios, se demostró la eficacia de los chatbots de IA para promover estilos de vida saludable, suspensión del tabaquismo, seguimiento del tratamiento médico y reducción del abuso de sustancias.32,33

Referencia oportuna a la atención médica

Aproximadamente 30 % de los pacientes en Estados Unidos recurre a internet para diagnosticar problemas de salud, pero solo 50 % de este grupo consulta un médico acerca de los resultados.34 El rápido advenimiento e interés por ChatGPT despierta la posibilidad de que las próximas versiones puedan ser utilizadas como asistentes virtuales especializados en la rama médica para facilitar el acceso a la información y respuestas. Hopkins et al. describieron la capacidad de ChatGPT para responder desde preguntas básicas como "¿cuáles son los tipos más frecuentes de cáncer?", hasta responder preguntas clínicas complejas como "¿puede el pembrolizumab causar fiebre y debo acudir al hospital?", con una notable capacidad para formular respuestas interpretables, con recomendaciones como "contacta a tu médico", "buena idea", "es muy recomendable" y "hazlo inmediatamente".35 Sin embargo, es responsabilidad de los profesionales en salud insistirle a la población que las herramientas como ChatGPT pueden ser potencialmente peligrosas si se pretende usarlas como médico virtual, ya que no constituyen o sustituyen una consulta médica otorgada por un experto.36

Una posibilidad para mejorar significativamente la calidad de las respuestas cuando se trata de un área de conocimiento en particular es realizar entrenamiento supervisado con fuentes confiables.37 También es importante tomar en cuenta que las respuestas que proporciona el ChatGPT dependen del idioma: si la pregunta se realiza en inglés, se obtendrán respuestas más precisas y profundas que si la misma pregunta se formula en francés o árabe.38

Retos de ChatGPT en la asistencia médica

Segunda ley: un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando dichas órdenes entren en conflicto con la primera ley

ISAAC ASIMOV

Los retos actuales de ChatGPT en la asistencia médica incluyen el cuidado de la privacidad de la información médica personal, la imprecisión de las respuestas particularmente ante preguntas médicas complejas, sesgos de entrenamiento, dependencia a la tecnología y riesgo de daño a los pacientes por el uso de información incorrecta. La perspectiva a futuro es que continuará mejorando en cuanto a la información que interprete y a la exactitud de las respuestas. La integración de ChatGPT y los datos del expediente clínico electrónico coadyuvará a practicar una medicina personalizada con estándares de seguridad, lo que permitirá un intercambio de información más fluido entre el médico y los pacientes. Incluso revistas tan importantes como New England Journal of Medicine iniciaron una serie de artículos sobre IA y medicina, con el anuncio de la creación de una nueva revista sobre el tema titulada "NEJM AI" (https://ai.nejm.org). Todo ello apunta a una explosión de interés en estas herramientas y la inminente aparición de evidencia científica que ayude a médicos y enfermos a utilizarlas de forma profesional.

Conclusiones

Los sistemas basados en sistemas de IA como ChatGPT están revolucionando múltiples facetas de la vida de las personas, así como la atención médica. Con esta innovación transformadora surge el desafío de integrar responsablemente estas nuevas herramientas en la atención clínica. ChatGPT tiene el potencial de mejorar los desenlaces de los pacientes, aumentar la precisión del diagnóstico y tratamiento médicos y reducir los costos. Sin embargo, aprovechar plenamente el potencial de esta nueva tecnología se requiere prestar atención a los riesgos éticos que plantea y tomar en cuenta los principios éticos de la medicina y la investigación en seres humanos. Una cuidadosa consideración de las implicaciones de estos principios permitirá maximizar los beneficios de la IA en el cuidado de la salud.39,40

Bibliografía

1. OpenAI. [Internet]. ChatGPT:optimizing language models for dialogue. [2022 nov 30]. Disponible en:https://openai.com/blog/ChatGPT [ Links ]

2. Sallam M. ChatGPT utility in healthcare education, research, and practice:systematic review on the promising perspectives and valid concerns. Healthcare. 2023;11(6):887. DOI:10.3390/healthcare11060887 [ Links ]

3. Khan RA, Jawaid M, Khan AR, Sajjad M. ChatGPT - Reshaping medical education and clinical management. Pak J Med Sci. 2023;39(2):605-7. DOI:10.12669/pjms.39.2.7653 [ Links ]

4. UNESCO [Internet]. ChatGPT, inteligencia artificial y educación superior:¿quédeben saber las instituciones de educación superior?2023. Disponible en:https://www.iesalc.unesco.org/2023/04/14/ChatGPT-e-inteligencia-artificial-en-la-educacion-superior-guia-de-inicio-rapido/ [ Links ]

5. Intelligent [Internet]. Nearly 1 in 3 college students have used ChatGPT on written assignments. [Publicado enero 2023]. Disponible en:https://www.intelligent.com/nearly-1-in-3-college-students-have-used-ChatGPT-on-written-assignments/ [ Links ]

6. Johnson A. ChatGPT in schools:Here's where it's banned—and how it could potentially help students. Forbes. 2023 enero 31. Disponible en:https://www.forbes.com/sites/ariannajohnson/2023/01/18/chatgpt-in-schools-heres-where-its-banned-and-how-it-could-potentially-help-students/?sh=6b86f3e36e2c [ Links ]

7. Baumgartner C. The potential impact of ChatGPT in clinical and translational medicine. Clin Transl Med. 2023;13(3):e1206. DOI:10.1002/ctm2.1206 [ Links ]

8. Kung TH, Cheatham M, Medenilla A, Sillos C, De León L, Elepaño C, et al. Performance of ChatGPT on USMLE:potential for AI-assisted medical education using large language models. PLOS Digit Health. 2023;2(2):e0000198. DOI:10.1371/journal.pdig.0000198 [ Links ]

9. The world's #1 AI detector with over 1 million users. 2023. Disponible en:https://gptzero.me/ [ Links ]

10. Mbakwe AB, Lourentzou I, Celi LA, Mechanic OJ, Dagan A. ChatGPT passing USMLE shines a spotlight on the flaws of medical education. PLOS Digit Health. 2023;2(2):e0000205. DOI:10.1371/journal.pdig.0000205 [ Links ]

11. Sánchez-Mendiola M, Martínez-Franco AI, Rosales-Vega A, Villamar-Chulin J, Gatica-Lara F, García-Durán R, Martínez-González A. Development, and implementation of a biomedical informatics course for medical students:challenges of a large-scale blended-learning program. J Am Med Inform Assoc. 2013;20(2):381-7. DOI:10.1136/amiajnl-2011-000796 [ Links ]

12. Lanzagorta-Ortega D, Carrillo-Pérez DL, Carrillo-Esper R. Inteligencia artificial en medicina:presente y futuro. Gac Med Mex. 2022;158:17-21. DOI:10.24875/GMM.M22000688 [ Links ]

13. Sánchez-Mendiola M. ChatGPT y educación médica:¿estrella fugaz tecnológica o cambio disruptivo?Inv Ed Med 2023;12(46):5-10. Disponible en:https://doi.org/10.22201/fm.20075057e.2023.46.23511 [ Links ]

14. Ayers JW, Poliak A, Dredze M, et al. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a Public Social Media Forum. JAMA Intern Med. 2023;183(6):589-96. DOI:10.1001/jamainternmed.2023.1838 [ Links ]

15. Stokel-Walker C. ChatGPT listed as author on research papers:many scientists disapprove. Nature. 2023;613(7945):6201. DOI:10.1038/d41586-023-00107-z [ Links ]

16. Gao C, Howard FM, Markov NS, Dyer EC, Ramesh S, Luo Y, ­Pearson AT. Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers. NPJ Digit Med. 2023;3;75(6). DOI:10.1038/s41746-023-00819-6 [ Links ]

17. Else H. Abstracts written by ChatGPT fool scientists. Nature. 2023;613(7944):423. DOI:10.1038/d41586-023-00056-7 [ Links ]

18. Thorp HH. ChatGPT is fun, but not an author. Science. 2023;379(6630):313. DOI:10.1126/science. adg7879 [ Links ]

19. Brean A. From ELIZA to ChatGPT. Tidsskr Nor Laegeforen. 2023;143(6). DOI:10.4045/tidsskr.23.0279 [ Links ]

20. The Lancet Digital Health. ChatGPT:friend or foe?Lancet Digit Health. 2023;5(3):e102. DOI:10.1016/S2589-7500(23)00023-7 [ Links ]

21. Gordijn B, Have HT. ChatGPT:evolution or revolution?Med Health Care Philos. 2023;26(1):1-2. DOI:10.1007/s11019-023-10136-0 [ Links ]

22. Zielinski C, Winker M, Aggarwal R, Ferris LE, Heinemann M, ­Lapeña JF Jr, et al. Chatbots, ChatGPT, and scholarly manuscripts:WAME recommendations on ChatGPT and Chatbots in Relation to Scholarly Publications. Maced J Med Sci. 2023;11(A):83-6. Disponible en:https://wame.org/page3.php?id=106 [ Links ]

23. Dave T, Athaluri SA, Singh S. ChatGPT in medicine:an overview of its applications, advantages, limitations, future prospects, and ethical considerations. Front Artif Intell. 2023;6:1169595. DOI:10.3389/frai.2023.1169595 [ Links ]

24. Comisión Nacional de Bioética. Bioética de la inteligencia artificial en salud. Pronunciamiento. [Publicado 2023 junio 13]. Disponible en:https://www.gob.mx/cms/uploads/attachment/file/832082/Bio_tica_de_la_inteligencia_artificial_Junio2023.pdf [ Links ]

25. van Dis EAM, Bollen J, Zuidema W, van Rooij R, Bockting CL. ChatGPT:five priorities for research. Nature. 2023;614(7947):224-6. DOI:10.1038/d41586-023-00288-7 [ Links ]

26. Li R, Kumar A, Chen JH. How chatbots and large language model artificial intelligence systems will reshape modern medicine:fountain of creativity or Pandora's box?JAMA Intern Med. 2023;183(6):596-7. DOI:10.1001/jamainternmed.2023.1835 [ Links ]

27. Brender TD. Medicine in the era of artificial intelligence:hey chatbot, write me an H&P. JAMA Intern Med. 2023;183(6):507-8. DOI:0.1001/jamainternmed.2023.1832 [ Links ]

28. Patel SB, Lam K. ChatGPT:the future of discharge summaries?Lancet Digit Health. 2023;5(3):e107-8. DOI:10.1016/S2589-7500(23)00021-3 [ Links ]

29. Lee P, Bubeck S, Petro J. Benefits, limits, and risks of GPT-4 as an AI chatbot for medicine. N Engl J Med. 2023;388(13):1233-9. DOI:10.1056/NEJMsr2214184 [ Links ]

30. Haug CJ, Drazen JM. Artificial intelligence and machine learning in clinical medicine, N Engl J Med. 2023;388(13):1201-8. DOI:10.1056/NEJMra2302038 [ Links ]

31. Kanjee Z, Crowe B, Rodman A. Accuracy of a generative artificial intelligence model in a complex diagnostic challenge. JAMA. 2023;330(1):78-80. DOI:10.1001/jama.2023.8288 [ Links ]

32. Aggarwal A, Tam CC, Wu D, Li X, Qiao S. Artificial intelligence-based chatbots for promoting health behavioral changes:systematic review. J Med Internet Res. 2023;25:e40789. DOI:10.2196/40789 [ Links ]

33. Zhang J, Oh YJ, Lange P, Yu Z, Fukuoka Y. Artificial intelligence chatbot behavior change model for designing artificial intelligence chatbots to promote physical activity and a healthy diet:viewpoint. J Med Internet Res. 2020;22(9):e22845. DOI:10.2196/22845 [ Links ]

34. Kuehn BM. More than one-third of US individuals use the Internet to self-diagnose. JAMA. 2013;309(8):756-7. DOI:10.1001/jama.2013.629 [ Links ]

35. Hopkins AM, Logan JM, Kichenadasse G, Sorich MJ. Artificial intelligence chatbots will revolutionize how cancer patients access information:ChatGPT represents a paradigm-shift. JNCI Cancer Spectr. 2023;7(2):pkad010. DOI:10.1093/jncics/pkad01 [ Links ]

36. Gurdeniz E, Hosanagar K. Generative AI won't revolutionize search —Yet. Harvard Bus Rev. [2023 Feb]. Disponible en:https://hbr.org/2023/02/generative-ai-wont-revolutionize-search-yet [ Links ]

37. Will ChatGPT transform healthcare?Nat Med. 2023;29(3):505-6. DOI:10.1038/s41591-023-02289-5 [ Links ]

38. Seghier ML. ChatGPT:not all languages are equal. Nature. 2023;615(7951):216. DOI:10.1038/d41586-023-00680-3 [ Links ]

39. Beauchamp TL, Childress JF. Principles of biomedical ethics. Quinta edición. New York:Oxford University Press;2021. [ Links ]

40. Springer Link [Internet]. Berlín, Alemania:Lindströmer Niklas, Ashrafian Hutan. Artificial intelligence in medicine. Springer Nature;2022. DOI:10.1007/978-3-030-58080-3 [ Links ]

FinanciamientoLos autores declaran que no recibieron financiamiento para este artículo.

Responsabilidades éticas

Protección de personas y animales. Los autores declaran que para esta investigación no realizaron experimentos en seres humanos ni en animales.

Confidencialidad de los datos. Los autores declaran que en este artículo no aparecen datos de pacientes.

Derecho a la privacidad y consentimiento informado. Los autores declaran que en este artículo no aparecen datos de pacientes.

Uso de inteligencia artificial para generar texto. Los autores declaran que no utilizaron ningún tipo de inteligencia artificial generativa para la redacción de este manuscrito, ni para la creación de pies de tablas y/o leyendas de figuras.

Recibido: 03 de Mayo de 2023; Aprobado: 31 de Julio de 2023

* Correspondencia: Carlos Gutiérrez-Cirlos E-mail: cirlos@hotmail.com

Conflicto de intereses

Los autores declaran que no existe conflicto de intereses.

Creative Commons License Instituto Nacional de Cardiología Ignacio Chávez. Published by Permanyer. This is an open ccess article under the CC BY-NC-ND license