SciELO - Scientific Electronic Library Online

 
vol.35 número4Cuidados paliativos perinatales: un abordaje integralVoluntades anticipadas, revisión histórica, legislación y perspectivas en la relación clínica índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Medicina y ética

versión On-line ISSN 2594-2166versión impresa ISSN 0188-5022

Med. ética vol.35 no.4 Ciudad de México oct./dic. 2024  Epub 29-Oct-2024

https://doi.org/10.36105/mye.2024v35n4.05 

Artículos

Reflexiones éticas del impacto y desafíos de la inteligencia artificial en la medicina de laboratorio

Carlos Alberto Román Collazo* 
http://orcid.org/0000-0002-8235-4165

Jonathan Brenner** 
http://orcid.org/0009-0005-1950-8124

Diego Andrade Campoverde*** 
http://orcid.org/0000-0003-4652-7708

* MEDsan Inc., Saint Petersburg, Florida, Correo electrónico: laboratory@medsaninc.com

** MEDsan Inc., Saint Petersburg, Florida, Correo electrónico: dr.jon.brenner@medsaninc.com

*** Universidad Católica de Cuenca, Ecuador, Correo electrónico: dandrade@ucacue.edu.ec


Resumen

El uso de la Inteligencia artificial (IA) en la Medicina de laboratorio (ML) ha provocado un salto cualitativo en el diagnóstico de enfermedades que aquejan al ser humano. El desarrollo de robots para la medición, cálculo y predicción ha aumentado la confiabilidad, validez y reproducibilidad de las pruebas diagnósticas con IA, induciendo a una fácil elección de dicha tecnología en el laboratorio clínico. Sin embargo, la IA en la ML entraña una serie de reflexiones éticas que deben considerarse. La incipiente tecnología en desarrollo, la presencia de sesgos cognitivos en los algoritmos y datos, la incertidumbre del funcionamiento del robot, las limitaciones tecnológicas, la amenaza a la privacidad y la ausencia de un marco legal abren conflictos éticos que laceran la equidad, la seguridad y la autonomía del hombre. El imperativo tecnológico de la IA en la ML no debe superar la responsabilidad, ni atentar contra la dignidad de la persona.

Palabras clave: laboratorio clínico; diagnóstico; responsabilidad; precaución; moral; tecnología

Abstract

The use of artificial intelligence (AI) in laboratory medicine (LM) has led to a qualitative leap in the diagnosis of diseases that afflict humans. The development of robots for measurement, calculation and prediction has increased the reliability, validity and reproducibility of AI diagnostic tests, leading to an easy choice of such technology in the clinical laboratory. However, AI in LM entails several ethical reflections that need to be considered. The incipient technology under development, the presence of cognitive biases in algorithms and data, the uncertainty of robot performance, technological limitations, the threat to privacy, and the absence of a legal framework open ethical conflicts that lacerate human equity, safety, and autonomy. The technological imperative of AI in LM must not overcome responsibility, nor infringe on the dignity of the person.

Keywords: clinical laboratory; diagnosis; liability; precaution; morality; technology

1. Introducción

La ML es una de las ramas médicas de mayor importancia en la atención de la salud del ser humano (1). Aun cuando persisten diversas definiciones, la ML se considera la disciplina de las ciencias médicas clínicas orientada a la medición cuantitativa o evaluación cualitativa de sustancias en muestra biológicas con una finalidad médica o de investigación. El fin es mejorar el estado de salud del individuo y la población en general (2).

La ML articula ramas del conocimiento como la bioquímica, la fisiología, la anatomía y la histología en el diagnóstico de enfermedades que aquejan al ser humano. Utiliza un arsenal de métodos y técnicas de laboratorio como son los colorimétricos, turbidimétricos, enzimáticos, potenciométricos, inmunológicos y de biología molecular en aras de mejorar la calidad del diagnóstico médico (3).

Actualmente, para incrementar la validez y confiabilidad en el diagnóstico se ha introducido la IA como herramienta computacional (4). Hoy en día es una rama imprescindible para el trabajo de los gestores de salud de la población en todos sus niveles de atención, donde la emergencia de problemas éticos conlleva a una profunda reflexión por parte de los profesionales (5).

En el área de la ML, la IA ha irrumpido en diferentes campos y vislumbra con revolucionar el diagnóstico médico de especialidades complejas como la anatomía patológica (6) y la medicina de precisión en enfermedades relevantes como el cáncer (7). Sin embargo, el uso de la IA en la ML debe considerar conflictos éticos emergentes en este campo biomédico. ¿Qué conflictos éticos relacionados a la seguridad, justicia, inocuidad y autonomía se vislumbran en el uso de la IA en la ML? (8). El objetivo del artículo es valorar el uso de la IA en la ML en la atención de la salud de los seres humanos desde una perspectiva bioética.

2. Métodos

La investigación fue realizada siguiendo un enfoque argumentativo empleando la revisión documental de literatura científica. Se plantearon dos núcleos temáticos principales: aplicaciones de la IA y conflictos éticos de la IA en al ML. Se realizó una búsqueda de artículos y libros publicados en los últimos 20 años en bases de datos científicas como Web of Science, Scopus, PubMed, Science Direct, Google Académico, Redalyc y Latindex, páginas Web de la Organización Mundial de la Salud (OMS) y blogs de personalidades en idioma inglés y español. La búsqueda fue realizada mediante descriptores y palabras clave (propias del artículo) combinadas mediante conectores booleanos (and, y, or, o, no, not). Fueron recuperados un total de 125 artículos de los cuales se desecharon 55 después de lectura del resumen o el texto completo por irrelevantes o duplicados. Las fuentes de información fueron almacenadas en el gestor de información científica Zotero para su agrupación temática y elaboración de Notas de contenido. Se utilizó el software MAXQDA para el procesamiento de los artículos y la búsqueda de nodos temáticos mediante el método de análisis de contenido. Se empleó el método argumentativo para enunciar aspectos positivos y negativos de la IA en la ML. El documento plasma el fundamento de la IA y los principales logros de su aplicación en la ML. Posteriormente se discute las implicaciones éticas de la IA en la ML considerando principios éticos como responsabilidad, justicia, autonomía y seguridad.

3. Resultados

2.1. Inteligencia Artificial

La IA emerge en la mitad del siglo XX con el surgimiento de los ordenadores y la idea de solución de problemas computacionales basados en la lógica proposicional. Sin embargo, la idea fue desechada producto de la imposibilidad de su implementación en la esfera práctica de manera inminente (9). El desarrollo del hardware, el aumento de la capacidad de almacenamiento y la velocidad de procesamiento de datos ha permitido el desarrollo exponencial de esta rama de las ciencias computacionales.

La IA está llamada a ser una de las grandes revoluciones en el mundo postmoderno. Su uso actual se extiende a diferentes áreas desde los llamados dispositivos inteligentes (relojes, teléfonos, computadoras, autos, dispositivos biomédicos) hasta procesos de trabajo en la industria, la ciencia, la educación, la salud y la sociedad (10). Palabras como bigdata, chatbot, asistentes virtuales, smartphone, smartwatch, redes neuronales, machine learning y deep learning llegan a nuestros días en una avalancha que nos atrapa en un pantano cibernético.

La definición de IA es amplia, aunque el consenso la conceptualiza como el conjunto de programas computacionales que permiten el almacenamiento, procesamiento de datos y toma de decisiones a partir de experiencias previas, simulando el aprendizaje humano (11). Entiéndase por experiencia previas a un conjunto de datos que reflejan la realidad.

Existen dos variantes fundamentales de IA en la actualidad: robots no mecánicos y los robots mecánicos (12). Los no mecánicos son programas informáticos que generan una respuesta no mecánicam como por ejemplo los chatbots, asistentes virtuales (Siri, Alexa, Copilot, etcétera) y los productos smart, entre otros (relojes, teléfonos, televisores), todos de gran aceptación por los consumidores. Los robots mecánicos implican una respuesta mecánica y su apariencia puede ser humanoide o no. En este grupo encontramos a los androides, zoonoides, multiarticulados (robots industriales, robots domésticos) entre otros.

La IA también puede clasificarse en IA fuerte, débil y general. La IA fuerte aprende y genera respuestas autónomas por parte del robot, mientras que la IA débil genera las mismas respuestas (limitadas) y solo el cambio en la programación puede modificar la respuesta. La IA general es aquella que permite un aprendizaje diverso a lo largo del tiempo sin olvidarlas en el futuro. Debido a su complejidad, es solo un planteamiento teórico sin desarrollo en la práctica (13).

La creación de máquinas que aprenden (machine learning, deep learning y natural language proccesing) intentan imitar la estructura del cerebro humano basado en las redes neuronales artificiales. Estas redes no son más que elementos procesadores de información interconectados entre sí y organizados en capas, permitiendo la comunicación mediante la entrada y salida de información del sistema (14).

El aprendizaje del robot se logra mediante tres mecanismos: por supervisión de datos, no supervisado y reforzado. En el primer caso el ser humano programa las acciones del robot según se considera correcto e incorrecto por parte del programador. A partir de la categorización de los datos de entrada, se establece un algoritmo lógico proposicional para generar una respuesta. En el segundo caso los datos primarios introducidos y un conjunto de normas lógicas iniciales conllevan a respuestas las cuales son “decididas por el robot” a partir de la información de entrada. La máquina puede ir incorporando nuevos patrones de respuesta sin el concurso permanente del ser humano, aunque la realización de un entrenamiento supervisado por los programadores es decisiva en alcanzar la autonomía robótica (10).

El aprendizaje por refuerzo conlleva aprendizaje por ensayo y error, recibiendo continuamente retroalimentación del desarrollador. El agente artificial reacciona a las señales de su entorno que representan el estado de este. Las acciones realizadas por el agente influyen en el estado del entorno. El objetivo principal es tomar decisiones que garanticen la máxima recompensa. Cuando la máquina toma una decisión correcta, el supervisor otorga una recompensa por la última acción realizada en forma de evaluación (14).

Un análisis simple revela un conjunto de ventajas de los robots sobre el hombre en funciones donde peligre la salud o se busque una mayor eficiencia en los procesos productivos (no es necesario periodos de descanso, alimentación y sueño). A juicio del filántropo Bill Gates, (15) la IA es “tan fundamental como la creación del microprocesador, el ordenador personal, internet y el teléfono móvil”, y es llamada a revolucionar áreas de nuestra vida actual como la educación, la salud y los procesos de trabajo.

3.2 Inteligencia artificial y Medicina de laboratorio

El uso de la IA en la atención en salud comienza a revolucionar este servicio y derecho humano en la sociedad postmoderna. Tiene aplicaciones relevantes en el ámbito quirúrgico, la rehabilitación de pacientes y el diagnóstico médico (16), aunque aún se encuentra en una fase inicial, distante de sus mayores potencialidades (17).

La automatización del laboratorio clínico ha sido una de las primeras aspiraciones en el área del diagnóstico médico. En la década de los 90 surgen los robots mediando la intención de mejorar los procesos de diagnóstico. Estos aumentaron la capacidad de procesamiento de las muestras, la confiabilidad de los resultados y disminuyó el tiempo de respuesta, tan importantes para un diagnóstico eficiente (18). Su aplicación fue principalmente en la etapa analítica de resultados limitando la potencialidad de esta tecnología.

Hoy en día el laboratorio clínico se organiza en sistemas modulares que ejecutan las funciones correspondientes de registro, procesamiento y salida de información. Los robots automatizados modulares ejecutan funciones como transportar el espécimen biológico, tomar muestras para análisis, ejecutar pruebas diagnósticas y presentar los resultados al paciente. Sin embargo, hasta el presente no se ha logrado un sistema de laboratorio inteligente que tenga la suficiente flexibilidad para realizar un proceso de automatización total (19).

El uso de la IA débil en la ML tiene diferentes alcances como son la selección de pruebas y la predicción, generación e interpretación de resultados en el proceso de diagnóstico (17). En los primeros años el uso de la IA en la ML consistió en el procesamiento de datos. A partir de las medidas de absorbancia o tramitancia de la luz, se construyen curvas patrón (modelos matemáticos de regresión lineal) para estimar concentraciones de determinados analitos como el colesterol, la glucosa, la creatinina entre otros (4). De manera similar se procede para calcular la carga viral utilizando la PCR en tiempo real (qPCR). El cálculo del Ct (umbral del ciclo) en los ensayos de qPCR y su representación gráfica en función del número de copias del material genético permite extrapolar los valores de muestras desconocidas asignando un estado patológico o no según sea el resultado (20). Otro ejemplo es el cálculo de riesgos de padecer enfermedades empleando modelos matemáticos y variables clínicas del paciente como las concentraciones de proteínas séricas y la identificación de gammapatías monoclonales asociadas a enfermedades mediante la técnica de electroforesis de proteína (21). El sistema de IA permite identificar el área bajo la curva para cada subgrupo de proteínas del suero sanguíneo y diagnosticar la gammapatía en el paciente. Este sistema aún no ha sido ampliamente adoptado por las entidades de laboratorio clínico, las cuales siguen utilizando el método tradicional donde el especialista humano dictamina el diagnóstico definitivo.

Una de las áreas de mayor aporte de la IA a la ML es el procesamiento de imágenes. La integración de redes neuronales artificiales ha permitido aumentar el rendimiento del procesamiento de las imágenes digitales con mayor poder de resolución. Esto ha sido aplicado a áreas específicas como el uroanálisis (22), la hematología (23) y la oncología (24) por mencionar algunas.

Al generar una imagen del sedimento urinario, el sistema de IA (machine learning) puede comparar estos datos no estructurados con una base de datos previamente introducida al robot permitiendo llegar a un diagnóstico del estado del paciente. En el campo hematológico se diagnostican enfermedades a partir de la morfología de las células (25) (eritrocitos y malaria, por ejemplo), aunque existen reportes de resultados no óptimos en el diagnóstico por una baja especificidad (26).

También la microbiología (27) y la citometría de flujo (28) poseen herramientas que realizan diagnóstico a partir del análisis matemático de las imágenes obtenidas del cultivo de los microorganismos o de los datos plasmados en la citometría. La compleja interpretación que debe hacer un tecnólogo para el diagnóstico queda simplificada a la lectura crítica y aprobación por parte este.

En el área de la microbiología, la IA tiene un papel fundamental en identificar las diferentes especies y subespecies microbianas que conforma el microbioma del ser humano. La informática de la microbiología clínica utiliza progresivamente la IA. La información genómica de bacterias aisladas, los resultados microbianos metagenómicos de muestras originales, los espectros de masas registrados a partir de aislados bacterianos cultivados y las fotografías digitales son ejemplos de enormes conjuntos de datos en microbiología clínica que pueden utilizarse para construir diagnósticos de IA (29).

La IA ha contribuido a la predicción del estado de los pacientes oncológicos pronosticando la metástasis ósea del cáncer prostático (30). Además, se reporta el diagnóstico certero de cáncer de pulmón (31), útero (32), próstata (33) y los gliomas (34) con sensibilidad y especificidad superiores al 95%. También ha tenido un papel relevante en la individualización del tratamiento del cáncer mediante radiaciones (35), o en la selección del tratamiento idóneo (36) para el paciente con cáncer (software Watson for Oncolgy, IBM). En todos los casos la sensibilidad, especificidad y la curva ROC (Curva de Respuesta del Operador) del modelo de AI empleado son suficientes para ser el método de diagnóstico o de tratamiento elegido.

La automatización mediante IA tiene ventajas en el diagnóstico clínico en sus etapas preanalítica, analítica y postanalítica. Además, supone un incremento de la eficiencia y satisfacción del cliente con los servicios en salud asociado a la mejora de las actividades de los servicios y la reducción del tiempo de espera (37).

La etapa preanalítica logra un mayor control de los especímenes biológicos en el proceso de diagnóstico y su uso por los diferentes módulos. Se optimiza el uso del espécimen entre las diferentes unidades modulares logrando un mejor flujo de las muestras. Además, se minimizan los errores en el proceso de registro del paciente y el análisis clínico a realizar. También los sistemas de algoritmos analíticos valoran la pertinencia de las pruebas diagnósticas, aliviando la responsabilidad de los directores de laboratorios clínicos en la toma de decisiones de cuales analitos incluir en la batería diagnóstica del paciente (38). Se debe resaltar que la IA podría valorar la inclusión o eliminación de pruebas emitidas por el médico lo que podría ser un área de conflicto entre el hombre y la tecnología.

En la etapa analítica, la IA ha disminuido el tiempo de diagnóstico y elevado el volumen de actividad tanto de pacientes como de pruebas diagnósticas a realizar. El aporte más relevante puede ser el re-enrutamiento de muestras con resultados dudosos a una nueva prueba para asegurarse del resultado. Además, disminuye la exposición del tecnólogo a las muestras biológicas lo que minimiza los riesgos de accidentes laborales y la adquisición de enfermedades trasmitidas por la sangre u otros fluidos (38).

En la etapa post analítica se agilizan los procesos de reportes de resultados, la validación de estos y su emisión correspondiente a las dependencias de salud. Se han diseñado Sistemas de Apoyo a la Decisión Diagnóstica (DDSS, del inglés Diagnosis Decision System Support) los cuales contribuyen a la toma de decisiones en el diagnóstico de laboratorio siendo otra área de posibles conflictos entre el robot y el tecnólogo (39). También se pronuncian por integrar los resultados del laboratorio con la condición clínica-terapéutica del paciente logrando una armonización de su proceso de salud-enfermedad.

4. Discusión

La OMS ha promulgado la digitalización de la medicina en la agenda de trabajo propuesta para el periodo 2020-2025 (40), Esto ha provocado un crecimiento en la implantación de la tecnología en los servicios en salud, y también la reflexión ética alrededor de estas tecnologías.

Aun cuando la literatura ha enunciado preocupaciones éticas sobre la IA y la atención médica, la incertidumbre latente alrededor de la IA y la medicina amerita retomar estos aspectos, aunque el enfoque primario ha sido desde el enfoque principialista, de Childress y Beauchamp en la ética médica, el análisis desde otras perspectivas éticas y principios enriquece la reflexión.

El artículo propone una valoración ética desde los principios éticos de responsabilidad, justicia, seguridad y autonomía (41) en el marco de la IA en la ML. A continuación, se enumeran los aspectos de mayor relevancia, constituyendo una guía de reflexión para las partes interesadas como desarrolladores, decisores médicos y políticos, productores y sociedad civil.

4.1. Sociedad, IA y ML

El uso de la IA en la medicina invita a la reflexión del papel de la tecnología en la sociedad y su uso por parte del ser humano. ¿Es pertinente implementar la IA en la ML? Evidentemente resulta tentadora la introducción de dicha tecnología, sin embargo, el análisis contextual de cada laboratorio clínico y la evaluación objetiva del volumen de actividad, el nivel de atención y los servicios de salud que brinda deben ser la base en la decisión de adhesión a la tecnología. El imperativo tecnológico no debe superar la lógica humana en su implementación. En caso contrario, los costos y la dilación en el proceso de implementación podrían deteriorar la asistencia en salud y descuidar la atención de los pacientes y la población en general.

Es imprescindible recordar que la inclusión de esta tecnología en la ML no es equivalente a incremento de la calidad en los servicios. La tecnología solo es un componente dentro del sistema de gestión de la calidad del laboratorio clínico y su adopción errada puede dar al traste con el fin de la ML y la calidad de los servicios, la que solo se logra a través de un proceso continuo de mejora del trabajo en el laboratorio y el establecimiento de programas y espacios para ello (1).

En el marco de la implementación responsable de la tecnología de IA en la ML, es prioritario la inclusión de las partes interesadas. ¿Qué opina y conoce la sociedad sobre este cambio que se gesta en la atención en salud?

Investigaciones recientes muestran que los pacientes (42) y galenos (43) manifiestan elevada satisfacción por el uso de la IA en el proceso de atención en salud. El paciente expresa una alta preferencia por los asistentes virtuales, las consultas online y la correspondencia electrónica. Sumergidos en la inmediatez y la urgencia de la vida postmoderna, los pacientes resaltan ventajas como evitar las filas, los elevados tiempos de espera y poder simultanear el diagnóstico médico con otras actividades. Habría que indagar si esta preferencia se mantiene en el diagnóstico de enfermedades catastróficas como el cáncer y las enfermedades neurodegenerativas, por mencionar algunas. En el caso del galeno, razones como el aumento de la eficiencia del proceso de diagnóstico es suficiente para su uso, aunque cabe mencionar que existe la preocupación y el temor de ser desplazado por el robot en ciertas funciones.

La introducción de la IA en la ML debe hacerse de manera paulatina, con el concurso de todas las partes interesadas, sobre todo los pacientes. Aún existe un amplio desconocimiento de la IA por parte de la sociedad civil que debe ser superado simultáneamente con su implementación. La participación conjunta de médicos, especialistas de laboratorio clínico, tecnólogos, desarrolladores de IA y pacientes es decisiva en la aceptación social de esta tecnología.

La comunicación oportuna y colegiada sobre los modos de actuar, accesibilidad, beneficios, riesgos, reparación por daños y futuro de la IA en la ML debe ser puesta sobre la mesa de diálogo con todas las partes interesadas, incluyendo decisores de políticas en salud y gobernantes políticos. Los avances en este sentido son escasos a nivel global, aunque los principales bloques implicados como China, Estados Unidos y la Unión Europea muestran avances locales sobre la gobernanza de dicha tecnología en la sociedad (44) y la existencia de códigos éticos para el uso de la IA en diferentes áreas de la vida humana (45).

4.2. Relación IA - profesional - paciente

Un aspecto controversial en la introducción de la IA a la ML es la relación entre robot-profesional-paciente. La clarificación de roles y funciones en el proceso diagnóstico debe ser una prioridad en aras de establecer los mecanismos, las funciones y las tareas de los participantes durante el diagnóstico médico.

Existe inquietud sobre la suplantación del especialista humano por el robot en el proceso de diagnóstico (46). La supuesta humanización laboral del especialista de laboratorio puede implicar el desentrenamiento y pérdida de competencias, un cese de sus funciones y la exclusión del hombre por el uso de la máquina, generando una forma de discriminación en las instituciones de salud y un dilema ético en el uso de la tecnología: innovación-desempleo o no innovar-empleo. El justo término medio sería la solución.

Actualmente el uso de una IA débil en el ámbito de la ML hace que la supervisión del tecnólogo médico sea necesaria. Aunque la autonomía del robot con IA es cuestionable, el papel de la supervisión humana va siendo cada vez menos imprescindible. El empleo de sistemas inteligentes fuertes con alto grado de autonomía (si se le puede llamar así) en áreas como el diagnóstico patológico conminan a la reflexión.

Los autores conciben la IA como una herramienta del proceso de diagnóstico, siendo el profesional médico el principal elemento en la toma de decisiones a partir de la información brindada por la máquina y la evaluación conjunta del paciente. Las posibles contradicciones entre la decisión de la máquina y el especialista de ML deben ser resueltas por la racionalidad humana con la ayuda de la precisión de la máquina. La emisión del informe final de resultados, aunque realizado con el apoyo de la tecnología, debe ser concluido por el componente humano.

En cuanto a la relación robot-profesional-paciente se establece una interdependencia de esta triada donde habría que definir los roles y funciones de cada participante en el diagnóstico. El robot debe fungir como asesor-consultor en el proceso de diagnóstico; sin embargo, en algunos casos ya se proclaman decisores del diagnóstico médico. Las funciones de consultor-decisor deben ser asignadas en función de la capacidad para generar una respuesta certera, el grado de independencia y el nivel de confianza del paciente en el diagnóstico. Esta situación nos acerca a una dicotomía entre el paternalismo de la máquina versus la autonomía del paciente y del tecnólogo. ¿Podrá el robot ponerse en la posición del otro durante el diálogo con el paciente, familiares y personal médico?

Algunas investigaciones han mostrado que la confianza de los pacientes en el diagnóstico de enfermedades de difícil pronóstico es mayor si es realizada por un médico real que un sistema de IA o un especialista de IA en ML (47). Esta confianza aumenta si el paciente escoge a su médico y este decide utilizar la IA para el diagnóstico (48). Además, se ha encontrado que el nivel de confianza está influenciado por otras variables sociales como el grado de instrucción, el tipo de patología a tratar y la percepción de la eficacia de otras IA como los dispositivos inteligentes de uso común (49). Algunas vías para mejorar la confianza hacia la IA son hacer más robustos los resultados diagnósticos, aumentar la transparencia en el funcionamiento de la tecnología y fomentar la equidad su uso (50). Sin embargo, puede surgir el conflicto de pacientes que no confíen en la IA para el diagnóstico médico. ¿Existirán alternativas diagnósticas para estos pacientes para que el paciente elija con libertad su atención médica?

Un impacto del uso de la IA en la ML es la desestimación del método clínico, unido al sobreuso de la tecnología en el diagnóstico médico (51). Esto ha repercutido en el alejamiento del paciente limitando la comprensión del fenómeno singular que es el proceso de salud-enfermedad en el ser humano. Para algunos autores la relación asumida con la IA por parte de la comunidad médica es errónea. Se propone un tránsito opuesto al actual, de modo que desate al profesional médico del trabajo administrativo y le permita fraternizar en mayor medida con el paciente (52).

Otro aspecto en debate es la posibilidad de humanizar el robot desde una perspectiva ética y emocional (53). Dotar al robot de una moral implica la capacidad de una reflexión sobre lo que es correcto y bueno, de la comprensión del mundo en la profundidad de los actos y de la integración de fenómenos, incluyendo la subjetividad humana. El robot moral debe tener una conciencia de sí y del mundo, haciendo que sus actuaciones tengan un componente ético, evitando situaciones que atenten contra la dignidad humana. ¿Será posible la construcción de un robot moral?

Existen proyectos de investigación que trabajan en este sentido, desarrollando sistemas complejos de aprendizaje y conciencia artificial (54) . Algunos de los más conocidos son Project Consciousness (MIRI), Self-Aware AI (Google DeepMind), Neural Episodic Control (DeepMind), NEuROCOG (uE), Neural Simulators (Anthropic), AI Self-Consciousness (MIT) entre otros. La humanización del robot desde las emociones debe mostrar empatía y compromiso con el paciente y su estado de salud, de modo que este se sienta identificado con el robot y colabore de manera activa en el diagnóstico, aspiración con limitaciones tecnológicas hasta el momento actual.

Algunos filósofos y científicos han planteado que la IA puede contribuir a la mejora moral del hombre (55). El robot moral puede hacer reflexionar al médico sobre los conflictos o dilemas morales en su entorno laboral y sugerir el actuar más justo integrando la perspectiva biopsicosocial del paciente. Al mismo tiempo el robot puede identificar conflictos éticos presentes o latentes en el ejercicio de la profesión, siendo considerados en la toma de decisiones. En la actualidad existe IA aplicada a la donación de órganos y la toma de decisiones durante la asignación a los donantes (56) de una manera justa y científicamente acertada.

La humanización moral del robot sugiere varias preguntas a responder por parte de bioeticistas, desarrolladores y otras partes interesadas, anticipando situaciones que podrían ser controversiales en un futuro.

  • • ¿Será posible moralizar (mediante programación) un robot inculcando el entramado de valores y códigos éticos del ser humano?

  • • ¿Existen las bases tecnológicas para moralizar un robot?

  • • ¿Cuál debe ser el nivel de complejidad de la reflexión ética del robot?

  • • ¿Cuáles son las implicaciones ético- jurídicas de la conciencia moral de las máquinas?

A juicio de los autores el uso de la IA no debe marginar el contacto de los seres humanos y la percepción de calidez, bondad, protección y confianza que ofrece el encuentro presencial del personal sanitario con el paciente. Evitar la despersonalización del paciente al no poder compartir sus emociones y sentimientos en este proceso de diagnóstico exige una solución a esta problemática. La relación robot-especialista-paciente debe estar fundada en una interacción dialógica que propicie la autonomía de los seres humanos y la heteronomía del robot. Se deben enmarcar los límites de actuación del robot de modo que las decisiones finales sean propiciadas por un profundo proceso de comunicación entre el profesional de la salud y su paciente, con la intervención del robot como principal asesor en el proceso de diagnóstico. La relación debe limitar el paternalismo tecnológico por parte de la máquina y propiciar la libertad de los seres humanos en la toma de decisión.

4.3. Accesibilidad a la ML con IA

Un aspecto para resolver en la sociedad es la creciente brecha de accesibilidad a los servicios en salud (costos y acceso a la tecnología). La implementación de la IA en la ML implica un proceso de transferencia tecnológica que vislumbra una alta inversión de recursos por parte del sistema de salud. En este punto surgen algunas preguntas relevantes como:

¿Tendrá la población de menos recursos económicos la posibilidad de utilizar estos avances tecnológicos en el diagnóstico de las enfermedades? ¿En qué medida se incrementarán los costos de los servicios médicos por el uso de la IA y si estos pueden ser asumidos por el sistema de salud? ¿Se incrementarán los impuestos a los ciudadanos por esta mejora en los servicios médicos? Estas preguntas deben ser analizadas de modo que la inversión no se convierta en una carga adicional para el gobierno o la ciudadanía y las políticas públicas en salud incluyan un plan de gestión de esta situación.

También debe considerarse la brecha tecnológica entre países desarrollados y en vías de desarrollo, relacionado con la transferencia tecnológica. La brecha digital es una realidad fehaciente entre norte y sur, ricos y pobres, erigiéndose como una barrera para la implementación equitativa de la IA en la ML. Aún se mantienen las diferencias de equidad en el acceso tecnológico entre norte y sur en el uso de las TIC como Internet, la comunicación digital y otras, situación que se vivió durante la pandemia de COVID-19 (57) y los problemas que surgieron en la educación y la atención en salud. La implementación de la IA, sin antes haber solucionado la brecha digital, margina a los más pobres e incrementa la inequidad en el uso de la tecnología. Si solo los más ricos tienen el acceso a la tecnología, la justicia en la atención médica seria mancillada y se priva el derecho humano a la salud en aras del tecnicismo médico. Las promesas de equidad en el acceso a las TIC y la transferencia tecnológica entre Norte y Sur no han sido cumplidas ¿Será diferente la situación para la IA en la ML?

La solución debe incluir un programa de transferencia tecnológica de modo que los países en vías de desarrollo sean capaces de asimilar la tecnología de una manera suave y orientada por los países desarrollados. Solo la cooperación internacional, la transferencia de tecnología de manera justa entre los países desarrolladores y consumidores de IA puede aliviar la creciente brecha tecnológica, propiciando una base de hardware y software equitativa para el desarrollo de la medicina digital.

Seguridad de la IA en la ML

Aunque la IA en la ML ha mostrado un alto grado de certeza y confiabilidad, dicha tecnología tiene sesgos propios de la condición humana (sesgos cognitivos), de los datos introducidos, del procesamiento de información y del aprendizaje de la máquina que hacen falible el proceso de diagnóstico médico.

La presencia de sesgos cognitivos en los algoritmos de IA es propia de la creación humana. Pensar que el algoritmo informático es ajeno a la subjetividad del hombre es un mito que debe ser revertido en la comunidad científica y la población en general. Ciertas investigaciones han plasmado la preocupación del impacto de los sesgos cognitivos en la IA (58). Se han encontrado diferentes sistemas de AI que incluyen sesgos de interacción, latentes y de selección provocando situaciones no éticas como el favoritismo, la discriminación y el abuso de poder entre otros. Revertir este mito es ser equitativos y generar paridad en las poblaciones, los criterios y los errores de la IA.

Se han documentado numerosos errores de la IA y sus aplicaciones como la confusión en los sistemas de reconocimiento faciales, la identificación de objetos o la interacción con asistentes inteligentes en la web (59). El chatbot Tay fue dado a conocer vía Twitter en el año 2016. Aun cuando el chatbot Tay no fue programado para hacer comentarios racistas o discriminatorios, este fue capaz de menospreciar a mujeres, alterar los sucesos del 11 de septiembre en Estados Unidos o alentar el genocidio cometido por Hitler durante la Segunda Guerra Mundial. Las respuestas desencadenadas fueron objeto de disculpas por parte de la empresa creadora la cual desactivó el chatbot de manera inmediata. Esta situación hace reflexionar acerca de la fiabilidad y predictibilidad de los sistemas de IA evidenciando que no son infalibles y pueden ocurrir eventos inesperados de consecuencias impredecibles y desagradables. Es importante que los desarrolladores puedan prever el lograr evitar o solucionar estas situaciones durante la implementación.

La IA está siendo aplicada a la ML a pasos agigantados y sus resultados han sido satisfactorios. Los modelos de IA han mostrado valores de sensibilidad y especificidad, valor pronóstico positivo y negativo similares o ligeramente superiores a la actuación humana en el diagnóstico de diferentes patologías (60). Sin embargo, aún persisten aspectos que sesgan los resultados (61) y se deben considerar para el uso de esta tecnología en el ser humano.

En primer lugar, se menciona el carácter experimental de la tecnología en el campo de la ML y la existencia de dificultades tecnológicas en el proceso de programación introduciendo sesgos cognitivos relevantes (58). También se constatan dificultades en la calidad y almacenamiento de los datos primarios (sobre todo imágenes) y su procesamiento (62). Se plantea que el volumen de datos es muy elevado y la capacidad de almacenamiento y procesamiento insuficiente (60) lo que puede generar errores en la salida de información. Además, existen un conjunto de incertidumbres alrededor de su funcionamiento, sobre todo la dinámica del proceso de aprendizaje y la generación del efecto de caja negra en las respuestas del robot.

La calidad de los datos es relevante en el proceso de entrenamiento y aprendizaje del robot. En la actualidad persisten los problemas de calidad de los datos relacionados al registro y la selección de la fuente en el desarrollo de la IA (63). La representatividad de los datos implica no solo un alto volumen, sino también una selección adecuada de estos, de modo que sean pertinentes al problema de salud a modelar. Esto quizás sugiera el uso de datos locales para la solución de problemas de salud propios de la región geográfica y la población residente en dicho espacio.

Ciertos estudios aseveran que la exclusión de variables sociodemográficas como el sexo biológico, el género y el color de la piel en los modelos de IA en el diagnóstico de enfermedades puede ser una de las causas de imprecisión y error más común de la tecnología (64). Incluir determinantes psicosociales de los estados de enfermedad en los algoritmos de IA es uno de los principales desafíos de los desarrolladores.

Asegurar la calidad de los datos también es ser exhaustivo en ello (representatividad y pertinencia), incluyendo la mayor cantidad de variables posibles, evitando los sesgos discriminatorios de la tecnología. La obtención de un vasto y pertinente volumen de datos permitirá un aprendizaje más amplio y flexible del robot, de manera conjunta con la disminución del sesgo y el aumento de los indicadores de confiabilidad, validez, sensibilidad y especificidad en el diagnóstico. Además, se logra una aproximación profunda y personalizada al proceso de salud enfermedad revolucionando la práctica de la medicina basada en evidencia.

Algunos estudios reportan resultados similares en el diagnóstico cuando se usan diferentes métodos de aprendizaje de IA como la arquitectura de la red neuronal convolucional, los clasificadores como la máquina vectorial de apoyo o el random forest(60). Sin embargo, otros plantean la superioridad de un método sobre otro (65). Esta situación es más compleja cuando los datos a analizar corresponden a secuencias genéticas o imágenes de laboratorio. Actualmente no existe certeza sobre el mejor algoritmo de aprendizaje de IA y cual utilizar en función del tipo de diagnóstico a generar (61). La respuesta a la pregunta: ¿cuál es el método idóneo para utilizar una herramienta de IA en salud? Es un conflicto por resolver para desarrolladores y especialistas.

También existe incertidumbre alrededor de la respuesta generada por el robot. Para los científicos sigue siendo un misterio el “razonamiento” del software y la elección de una respuesta u otra durante el aprendizaje (62). Conocer el cómo y por qué el robot selecciona una respuesta es uno de los elementos más importantes para predecir su funcionamiento y evitar o atenuar las consecuencias indeseadas. La IA puede hacer conjeturas a partir de los datos, pero no puede explicar cómo llego a esas conjeturas. El misterio de la caja negra en el proceso de respuesta de la IA se opone a la transparencia y plausibilidad en la toma de decisiones en el proceso de salud. La solución inmediata sería un paso de avance en la solución de conflictos éticos en este campo, el cual genera dificultades en el proceso diagnóstico por parte del especialista humano (66).

4.4. Confidencialidad de datos, IA y ML

La aplicación de sistemas inteligentes en la ML conlleva el registro, almacenamiento y uso de un volumen elevado de datos personales y del estado de salud de los pacientes a través de sistemas de IA y la Big Data (5). Existe una gran preocupación de las partes interesadas por salvaguardar la intimidad y privacidad de los datos. Algunos de los temas más controversiales son el uso y la protección de los datos generados durante el proceso de diagnóstico.

La protección de los datos almacenados debe ser una política propia de la institución de salud de modo que se garanticen la accesibilidad y privacidad de estos a pacientes y personal médico autorizado. El registro de los datos debe estar contenido en un software profesional con potentes sistemas de anonimización y seguridad digital, de modo que se minimice el acceso no autorizado al sistema, las brechas en el sistema de información y con ello la pérdida de privacidad del paciente (67).

Algunos autores consideran la donación de los datos al sistema de salud con vistas a su mejora y perfeccionamiento como una obligación moral de los pacientes (68). Esta visión colectivista maximiza el deber hacia la comunidad y minimiza la individualidad del paciente lo que genera desencuentro entre profesionales y pacientes. También se propone prescindir de un consentimiento informado para el uso de datos almacenados cuando no sea posible acceder al paciente o los costos por ello sean insufragables. Estas consideraciones dejan al paciente desprovisto de protección frente a posibles situaciones que laceren la intimidad o potencien la discriminación a partir de su condición de salud y el mal manejo de los datos por entidades empleadoras, de seguro u otras en la sociedad.

Para algunos autores la institución de salud debe declarar de manera explícita sus intenciones con los datos al momento de la colección, así como en el futuro mediato. El Dr. Enrico Coiera considera que no basta con tener un sistema de salud eficiente si después este vende los datos de sus pacientes al mejor postor y se pierde la confianza del paciente en el sistema sanitario (69). Según Larson y colaboradores, en el año 2018 periodistas del New York Times develaron una relación comercial entre Memorial Sloan-Kettering Cancer Center and Paige.AI la cual consistió en dar acceso a millones de cortes histológicos almacenados en sus bases de datos a cambio del 9 % en la sociedad (68). Evidentemente los intereses económicos y el fin de los datos tienen un soporte no ético, lo que cuestiona el uso de los datos y la ruptura de la confidencialidad del paciente. De manera paradójica en algunas regiones del mundo como Estados Unidos, está normalizada la venta de datos de clientes y pacientes.

También se debe plasmar las posibles retribuciones a los pacientes en caso de ganancias económicas por el uso de estos datos. Se vivieron abusos relacionados con los beneficios al paciente durante el icónico caso de Henrietta Lacks (70) y pueden repetirse en el marco de la IA en la ML. El uso de un consentimiento informado que el paciente debe aceptar puede ser una alternativa de solución ética. Su redacción debe ser comprensible por parte del paciente de modo que pueda dar el libre consentimiento del manejo de los datos.

Por último, hay que contemplar la posibilidad de un robot con IA fuerte que muestre autonomía en la decisión del manejo de datos. ¿Cómo operar frente a esta situación y que normativas éticas y legales deberían asegurar el buen uso de la información por parte de un robot con IA? Los desarrolladores deben tener la última palabra limitando este potencial riesgo mediante una programación restrictiva del robot.

4.5. Aspectos legales de la IA y la medicina

La implementación de la IA en el servicio de salud y la ML debe ir aparejada de un sólido marco legal (16), de modo que proteja tanto a los desarrolladores como los usuarios y marque los modos de actuación frente a posibles conflictos.

Los juristas por el momento se debaten en cuanto al futuro legal de la IA fuerte que ensombrece el panorama. Estas limitaciones incluyen la no definición de un estatus jurídico del robot y el otorgamiento de un estatus legal donde se asuma la responsabilidad por daños o perjuicios producto de la toma de decisiones. Para algunos juristas, la responsabilidad penal aplicada al robot es similar a la responsabilidad penal aplicada a entidades corporativas, sentando un precedente relevante en la asignación de responsabilidad civil y penal a entes no humanos (54). La asignación de una responsabilidad jurídica es relevante ante situaciones en el contexto médico como mala praxis, impericia o negligencia médica, donde el daño al paciente es palpable y la toma de acciones legales contra los implicados es frecuente. Estas situaciones deben ser deslindadas de manera diferencial para esclarecer posibles daños a la integridad del paciente o del especialista médico. La actual paradoja está en el otorgamiento o no de una personalidad jurídica a estos robots que aún no son autónomos, pero podrían serlo en un futuro cercano.

Esta responsabilidad legal pone en punto de mira al propio robot, sus desarrolladores, la empresa médica que los usa, los comercializadores y el médico que hizo el diagnóstico. ¿Quién asumirá la responsabilidad del daño provocado al paciente en el diagnóstico médico? Quizás el enfoque gradual y proporcional para la solución de este dilema debe ser razonado desde el estado actual de la tecnología y el grado de participación de las partes en el diagnóstico médico. Opiniones especializadas hablan de la necesaria modificación del actual panorama legal con vistas a contextualizar e incluir la IA en el marco jurídico (9). Resolver la paradoja de la responsabilidad por productos defectuosos o la autonomía consciente del robot resulta imprescindible para solucionar posibles conflictos en el ámbito de la medicina y la IA.

5. Conclusiones

La IA es una tecnología que potencia el diagnóstico de enfermedades en el ser humano.

La introducción de la IA en la ML debe orientarse al hombre como fin y la implementación del derecho humano a la salud. La implementación de la IA en el área del diagnóstico médico debe estar guiada por una profunda reflexión ética, de modo que no se desvirtúe la esencia de dicha propuesta, o se enmascaren fines económicos o hegemónicos.

La inclusión de la IA en la ML se encuentra en una segunda etapa, donde el desarrollo del software y hardware son imprescindibles para alcanzar la meta de un diagnóstico médico eficiente, válido y confiable. Su desarrollo vertiginoso y aplicación incipiente en la ML amerita una profunda reflexión ética sobre su uso, enfatizando en riesgos, beneficios y las implicaciones éticas y legales. En la implementación de la IA en la ML debe predominar el raciocinio humano como decisor en los procesos de diagnóstico médico, siendo la tecnología un elemento de apoyo en la toma de decisiones. El desarrollo de un marco legal coherente e inclusivo de la IA en la ML es determinante para evitar situaciones que laceren la integridad física, confidencialidad y moral de las partes interesadas.

La presencia de un conjunto de conflictos éticos en el campo de la IA exige la precaución y la responsabilidad en su uso en aras de preservar la dignidad humana. La precaución debe orientarse a la proyección de los riesgos por su uso y planear como minimizar, atenuar y controlar los riesgo y eventos indeseados. La responsabilidad incluye la participación de todas las partes interesadas en la implementación de la AI, orientando su uso por el camino del bien en el presente y el futuro mediato.

Referencias

1. Sciacovelli L, Padoan A, Aita A, Basso D, Plebani M. Quality indicators in laboratory medicine: state-of-the-art, quality specifications and future strategies. Clin Chem Lab Med CCLM [Internet]. 2023 [citado 19 de marzo de 2024]; 61(4):688-95. Disponible en: https://www.degruyter.com/document/doi/10.1515/cclm-2022-1143/htmlLinks ]

2. Lippi G, Plebani M. A modern and pragmatic definition of Laboratory Medicine. Clin Chem Lab Med CCLM [Internet]. 2020 [citado 22 de febrero de 20204]; 58(8):1171-1171. Disponible en: https://www.degruyter.com/document/doi/10.1515/cclm-2020-0114/htmlLinks ]

3. Plebani M. Quality in laboratory medicine and the journal: walking together. Clin Chem Lab Med CCLM [Internet]. 2023 [citado 19 de marzo de 2024]; 61(5):713-20. Disponible en: https://www.degruyter.com/document/doi/10.1515/cclm-2022-0755/htmlLinks ]

4. Gruson D. Big Data, inteligencia artificial y medicina de laboratorio: la hora de la integración. Adv Lab Med [Internet]. 2021 [citado 19 de marzo de 2024]; 2(1):5-7. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10197294/Links ]

5. Herman DS, Rhoads DD, Schulz WL, Durant TJS. Artificial intelligence and mapping a new direction in laboratory medicine: a review. Clin Chem [Internet]. 2021 [citado 22 de febrero de 2024]; 67(11):1466-82. Disponible en: https://doi.org/10.1093/clinchem/hvab165 [ Links ]

6. El Nahhas OSM, Loeffler CML, Carrero ZI, van Treeck M, Kolbinger FR, Hewitt KJ. Regression-based Deep-Learning predicts molecular biomarkers from pathology slides. Nat Commun [Internet]. 2024 [citado 19 de marzo de 2024]; 15:1253. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10858881/Links ]

7. Briganti G, Le Moine O. Artificial Intelligence in Medicine: Today and Tomorrow. Front Med [Internet]. 2020 [citado 19 de marzo de 2024]; 7. Disponible en: https://doi.org/10.3389/fmed.2020.00027 [ Links ]

8. Pennestrì F, Banfi G. Artificial intelligence in laboratory medicine: fundamental ethical issues and normative key-points. Clin Chem Lab Med CCLM [Internet]. 2022 [citado 22 de febrero de 2024]; 60(12):1867-74. Disponible en: https://doi.org/10.1515/cclm-2022-0096 [ Links ]

9. González Arencibia M, Martínez Cardero D. Dilemas éticos en el escenario de la inteligencia artificial. Econ Soc [Internet]. 2020 [citado 19 de marzo de 2024]; 25(57):93-109. Disponible en: http://www.scielo.sa.cr/scielo.php?script=sci_abstract&pid=S2215-34032020000100093&lng=en&nrm=iso&tlng=esLinks ]

10. Zhang C, Lu Y. Study on artificial intelligence: The state of the art and future prospects. J Ind Inf Integr [Internet]. 2021 [citado 19 de marzo de 2024]; 23:100224. Disponible en: https://www.sciencedirect.com/science/article/pii/S2452414X21000248Links ]

11. Mintz Y, Brodie R. Introduction to artificial intelligence in medicine. Minim Invasive Ther Allied Technol [Internet]. 2019 [citado 19 de marzo de 2024]; 28(2):73-81. Disponible en: https://doi.org/10.1080/13645706.2019.1575882 [ Links ]

12. Avila-Tomás JF, Mayer-Pujadas MA, Quesada-Varela VJ. La inteligencia artificial y sus aplicaciones en medicina I: introducciones antecedentes a la IA y robótica. Aten Primaria [Internet]. 2020 [citado 22 de febrero de 2024]; 52(10):778-84. Disponible en: https://linkinghub.elsevier.com/retrieve/pii/S0212656720301451Links ]

13. Porcelli AM. Inteligencia Artificial y la Robótica: sus dilemas sociales, éticos y jurídicos. Derecho Glob Estud Sobre Derecho Justicia [Internet]. 2020 [citado 19 de marzo de 2024]; 6(16):49-105. Disponible en: http://www.derechoglobal.cucsh.udg.mx/index.php/DG/article/view/286Links ]

14. Koteluk O, Wartecki A, Mazurek S, Kołodziejczak I, Mackiewicz A. How do machines learn? Artificial intelligence as a new era in medicine. J Pers Med [Internet]. 2021 [citado 19 de marzo de 2024]; 11(1):32. Disponible en: https://www.mdpi.com/2075-4426/11/1/32 [ Links ]

15. Gates B. gatesnotes.com. [citado 19 de marzo de 2024]. The Age of AI has begun. Disponible en: https://www.gatesnotes.com/The-Age-of-AI-Has-BegunLinks ]

16. Alowais SA, Alghamdi SS, Alsuhebany N, Alqahtani T, Alshaya AI, Almohareb SN. Revolutionizing healthcare: the role of artificial intelligence in clinical practice. BMC Med Educ [Internet]. 2023 [citado 22 de febrero de 2024]; 23(1):689. Disponible en: https://doi.org/10.1186/s12909-023-04698-z [ Links ]

17. Haymond S, McCudden C. Rise of the machines: artificial intelligence and the clinical laboratory. J Appl Lab Med [Internet]. 2021 [citado 22 de febrero de 2024]; 6(6):1640-54. Disponible en: https://doi.org/10.1093/jalm/jfab075 [ Links ]

18. Naugler C, Church DL. Automation and artificial intelligence in the clinical laboratory. Crit Rev Clin Lab Sci [Internet]. 2019 [citado 22 de febrero de 2024]; 56(2):98-110. Disponible en: https://doi.org/10.1080/10408363.2018.1561640 [ Links ]

19. Holland I, Davies JA. Automation in the life science research laboratory. Front Bioeng Biotechnol [Internet]. 2020 [citado 19 de marzo de 2024]; 8. Disponible en: https://www.frontiersin.org/articles/10.3389/fbioe.2020.571777Links ]

20. Dobrijević D, Vilotijević-Dautović G, Katanić J, Horvat M, Horvat Z, Pastor K. Rapid triage of children with suspected COVID-19 using laboratory-based machine-learning algorithms. Viruses [Internet]. 2023 [citado 22 de febrero de 2024]; 15(7):1522. Disponible en: https://www.mdpi.com/1999-4915/15/7/1522 [ Links ]

21. Wang H, Wang H, Zhang J, Li X, Sun C, Zhang Y. Using machine learning to develop an autoverification system in a clinical biochemistry laboratory. Clin Chem Lab Med CCLM [Internet]. 2021 [citado 19 de marzo de 2024]; 59(5):883-91. Disponible en: https://www.degruyter.com/document/doi/10.1515/cclm-2020-0716/html?lang=enLinks ]

22. Enko D, Stelzer I, Böckl M, Derler B, Schnedl WJ, Anderssohn P. Comparison of the diagnostic performance of two automated urine sediment analyzers with manual phase-contrast microscopy. Clin Chem Lab Med. 2020; 58(2):268-73. https://doi.org/10.1515/cclm-2019-0919 [ Links ]

23. Acevedo A, Alférez S, Merino A, Puigví L, Rodellar J. Recognition of peripheral blood cell images using convolutional neural networks. Comput Methods Programs Biomed [Internet]. 2019 [citado 19 de marzo de 2024]; 180:105020. Disponible en: https://www.sciencedirect.com/science/article/pii/S0169260719303578Links ]

24. Wang L, Chen X, Zhang L, Li L, Huang Y, Sun Y. Artificial intelligence in clinical decision support systems for oncology. Int J Med Sci [Internet]. 2023 [citado 19 de marzo de 2024]; 20(1):79-86. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9812798/Links ]

25. Poostchi M, Silamut K, Maude RJ, Jaeger S, Thoma G. Image analysis and machine learning for detecting malaria. Transl Res J Lab Clin Med [Internet]. 2018 [citado 19 de marzo de 2024]; 194:36-55. Disponible en: https://www.translationalres.com/article/S1931-5244(17)30333-X/fulltextLinks ]

26. Zhang ML, Guo AX, Kadauke S, Dighe AS, Baron JM, Sohani AR. Machine learning models improve the diagnostic yield of peripheral blood flow cytometry. Am J Clin Pathol. 2020; 153(2):235-42. [ Links ]

27. Bailey AL, Ledeboer N, Burnham CAD. Clinical microbiology is growing up: the total laboratory automation revolution. Clin Chem. 2019; 65(5):634-43. [ Links ]

28. Ng DP, Zuromski LM. Augmented human intelligence and automated diagnosis in flow cytometry for hematologic malignancies. Am J Clin Pathol. 2021; 155(4):597-605. [ Links ]

29. Undru TR, Uday U, Lakshmi JT, Kaliappan A, Mallamgunta S, Nikhat SS. Integrating artificial intelligence for clinical and laboratory diagnosis - a review. Mædica [Internet]. 2022 Jun [citado 22 de febrero de 2024]; 17(2):420-6. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9375890/Links ]

30. Zhang YF, Zhou C, Guo S, Wang C, Yang J, Yang ZJ. Deep learning algorithm-based multimodal MRI radiomics and pathomics data improve prediction of bone metastases in primary prostate cancer. J Cancer Res Clin Oncol [Internet]. 2024 [citado 19 de marzo de 2024]; 150(2):78. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10844393/Links ]

31. Zhong R, Gao T, Li J, Li Z, Tian X, Zhang C. The global research of artificial intelligence in lung cancer: a 20-year bibliometric analysis. Front Oncol [Internet]. 2024 [citado 19 de marzo de 2024]; 14:1346010. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10869611/Links ]

32. Stegmüller T, Abbet C, Bozorgtabar B, Clarke H, Petignat P, Vassilakos P. Self-supervised learning-based cervical cytology for the triage of HPV-positive women in resource-limited settings and low-data regime. Comput Biol Med [Internet]. 2024 [citado 19 de marzo de 2024]; 169:107809. Disponible en: https://www.sciencedirect.com/science/article/pii/S001048252301274XLinks ]

33. Guerra A, Orton MR, Wang H, Konidari M, Maes K, Papanikolaou NK. Clinical application of machine learning models in patients with prostate cancer before prostatectomy. Cancer Imaging [Internet]. 2024 [citado 19 de marzo de 2024]; 24:24. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10854130/Links ]

34. Lv Q, Liu Y, Sun Y, Wu M. Insight into deep learning for glioma IDH medical image analysis: A systematic review. Medicine (Baltimore) [Internet]. 2024 [citado 19 de marzo de 2024]; 103(7):e37150. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10869095/Links ]

35. Lin H, Ni L, Phuong C, Hong JC. Natural Language Processing for Radiation Oncology: Personalizing Treatment Pathways. Pharmacogenomics Pers Med [Internet]. 2024 [citado 19 de marzo de 2024]; 17:65-76. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10874185/Links ]

36. Rietjens JAC, Griffioen I, Sierra-Pérez J, Sroczynski G, Siebert U, Buyx A. Improving shared decision-making about cancer treatment through design-based data-driven decision-support tools and redesigning care paths: an overview of the 4D PICTURE project. Palliat Care Soc Pract [Internet]. 2024 [citado 19 de marzo de 2024]; 18:26323524231225249. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10863384/Links ]

37. Saif-Ur-Rahman K, Islam MS, Alaboson J, Ola O, Hasan I, Islam N. Artificial intelligence and digital health in improving primary health care service delivery in LMICs: A systematic review. J Evid-Based Med [Internet]. 2023 [citado 20 de marzo de 2024]; 16(3):303-20. Disponible en: https://onlinelibrary.wiley.com/doi/abs/10.1111/jebm.12547Links ]

38. Baron JM. Artificial intelligence in the clinical laboratory: an overview with frequently asked questions. Clin Lab Med [Internet]. 2023 [citado 20 de marzo de 2024]; 43(1):1-16. Disponible en: https://www.labmed.theclinics.com/article/S0272-2712(22)00060-9/abstractLinks ]

39. Sloane EB, J. Silva R. Chapter 83 - Artificial intelligence in medical devices and clinical decision support systems. In: Iadanza E, editor. Clinical Engineering Handbook (Second Edition) [Internet]. Academic Press; 2020 [citado 20 de marzo de 2024]:556-68. Disponible en: https://www.sciencedirect.com/science/article/pii/B9780128134672000845Links ]

40. OMS. Estrategia mundial sobre salud digital 2020-2025 [Internet]. Ginebra: OMS; 2021 [citado 20 de marzo de 2024]. Disponible en: https://iris.who.int/bitstream/handle/10665/344251/9789240027572-spa.pdf?sequence=1&isAllowed=yLinks ]

41. Murphy K, Di Ruggiero E, Upshur R, Willison DJ, Malhotra N, Cai JC. Artificial intelligence for good health: a scoping review of the ethics literature. BMC Med Ethics [Internet]. 2021 [citado 20 de marzo de 2024]; 22(1):14. Disponible en: https://doi.org/10.1186/s12910-021-00577-8 [ Links ]

42. Meyer AND, Giardina TD, Spitzmueller C, Shahid U, Scott TMT, Singh H. Patient perspectives on the usefulness of an artificial intelligence-assisted symptom checker: cross-sectional survey study. J Med Internet Res [Internet]. 2020 [citado 20 de marzo de 2024]; 22(1):e14679. Disponible en: https://www.jmir.org/2020/1/e14679Links ]

43. Wadhwa V, Alagappan M, Gonzalez A, Gupta K, Brown JRG, Cohen J. Physician sentiment toward artificial intelligence (AI) in colonoscopic practice: a survey of US gastroenterologists. Endosc Int Open [Internet]. 2020 [citado 20 de marzo de 2024]; 08(10):E1379-84. Disponible en: http://www.thieme-connect.de/DOI/DOI?10.1055/a-1223-1926Links ]

44. Pita EV. La UNESCO y la gobernanza de la inteligencia artificial en un mundo globalizado. La necesidad de una nueva arquitectura legal. Anu Fac Derecho [Internet]. 2021 [citado 20 de marzo de 2024]; (37):273-302. Disponible en: https://revista-afd.unex.es/index.php/AFD/article/view/1028Links ]

45. Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines. Minds Mach [Internet]. 2020 [citado 22 de febrero de 2024]; 30(1):99-120. Disponible en: https://doi.org/10.1007/s11023-020-09517-8 [ Links ]

46. Grunhut J, Wyatt AT, Marques O. Educating future physicians in artificial intelligence (AI): an integrative review and proposed changes. J Med Educ Curric Dev [Internet]. 2021 [citado 20 de marzo de 2024]; 8:23821205211036836. Disponible en: https://doi.org/10.1177/23821205211036836 [ Links ]

47. Juravle G, Boudouraki A, Terziyska M, Rezlescu C. Chapter 14 - Trust in artificial intelligence for medical diagnoses. In: Parkin BL, editor. Progress in Brain Research [Internet]. Elsevier; 2020 [citado 20 de marzo de 2024]:263-82. (Real-World Applications in Cognitive Neuroscience; vol. 253). Disponible en: https://www.sciencedirect.com/science/article/pii/S0079612320300819Links ]

48. Nelson CA, Pérez-Chada LM, Creadore A, Li SJ, Lo K, Manjaly P. Patient perspectives on the use of artificial intelligence for skin cancer screening: a qualitative study. JAMA Dermatol [Internet]. 2020 [citado 20 de marzo de 2024]; 156(5):501-12. Disponible en: https://doi.org/10.1001/jamadermatol.2019.5014 [ Links ]

49. Yakar D, Ongena YP, Kwee TC, Haan M. Do people favor artificial intelligence over physicians? A survey among the general population and their view on artificial intelligence in medicine. Value Health [Internet]. 2022 [citado 20 de marzo de 2024]; 25(3):374-81. Disponible en: https://www.sciencedirect.com/science/article/pii/S1098301521017411Links ]

50. Asan O, Bayrak AE, Choudhury A. Artificial intelligence and human trust in healthcare: focus on clinicians. J Med Internet Res [Internet]. 2020 [citado 20 de marzo de 2024];22(6):e15154. Disponible en: https://www.jmir.org/2020/6/e15154Links ]

51. Trainini J, Hornos Barberis E, Aranovich R. Aportes a la comprensión de la problemática actual de la trilogíamédico-paciente-tecnología. Rev Argent Cardiol [Internet]. 2023 [citado 20 de marzo de 2024]; 91(4):298-301. Disponible en: https://rac.sac.org.ar/index.php/rac/article/view/214/608Links ]

52. DiGiorgio AM, Ehrenfeld JM. Artificial Intelligence in Medicine & ChatGPT: De-Tether the physician. J Med Syst [Internet]. 2023 [citado 20 de marzo de 2024]; 47(1):32. Disponible en: https://doi.org/10.1007/s10916-023-01926-3 [ Links ]

53. Arnold MH. Teasing out artificial intelligence in medicine: an ethical critique of artificial intelligence and machine learning in medicine. J Bioethical Inq [Internet]. 2021 [citado 22 de febrero de 2024]; 18(1):121-39. Disponible en: https://doi.org/10.1007/s11673-020-10080-1 [ Links ]

54. Blanc CA. “El despertar de las máquinas”: Reflexiones sobre el estatus moral y jurídico de la Inteligencia Artificial. Rev Int Pensam Político [Internet]. 2023 Dec 22 [citado 20 de marzo de 2024]; 18:213-42. Disponible en: https://upo.es/revistas/index.php/ripp/article/view/8529Links ]

55. Rueda J. ¿Automatizando la mejora moral humana? La inteligencia artificial para la ética: Nota crítica sobre Lara, F. y Savalescu, J (eds.) (2021), Más (que) humanos. Biotecnología, inteligencia artificial y ética de la mejora. Madrid: Tecnos. Daimon Rev Int Filos [Internet]. 2023 [citado 20 de marzo de 2024];(89):199-209. Disponible en: https://revistas.um.es/daimon/article/view/508771Links ]

56. Sinnott-Armstrong W, Skorburg J (Gus) A. How AI can aid bioethics. J Pract Ethics [Internet]. 2021 [citado 20 de marzo de 2024]; 9(1). Disponible en: https://journals.publishing.umich.edu/jpe/article/id/1175/Links ]

57. Beaunoyer E, Dupéré S, Guitton MJ. COVID-19 and digital inequalities: Reciprocal impacts and mitigation strategies. Comput Hum Behav [Internet]. 2020 [citado 20 de marzo de 2024]; 111:106424. Disponible en: https://www.sciencedirect.com/science/article/pii/S0747563220301771Links ]

58. Ramírez GM. Problemática antropológica detrás de la discriminación generada a partir de los algoritmos de la inteligencia artificial. Med Ética [Internet]. 2023 [citado 20 de marzo de 2024]; 34(2):429-80. Disponible en: https://revistas.anahuac.mx/index.php/bioetica/article/view/1669Links ]

59. Chen JH, Verghese A. Planning for the known unknown: machine learning for human healthcare systems. Am J Bioeth [Internet]. 2020 [citado 20 de marzo de 2024]; 20(11):1-3. Disponible en: https://doi.org/10.1080/15265161.2020.1822674 [ Links ]

60. Cui M, Zhang DY. Artificial intelligence and computational pathology. Lab Invest [Internet]. 2021 [citado 20 de marzo de 2024]; 101(4):412-22. Disponible en: https://www.sciencedirect.com/science/article/pii/S0023683722006468Links ]

61. Corti C, Cobanaj M, Dee EC, Criscitiello C, Tolaney SM, Celi LA. Artificial intelligence in cancer research and precision medicine: Applications, limitations and priorities to drive transformation in the delivery of equitable and unbiased care. Cancer Treat Rev [Internet]. 2023 [citado 20 de marzo de 2024]; 112:102498. Disponible en: https://www.sciencedirect.com/science/article/pii/S0305737222001748Links ]

62. Daneshjou R, Smith MP, Sun MD, Rotemberg V, Zou J. Lack of transparency and potential bias in artificial intelligence data sets and algorithms: a scoping review. JAMA Dermatol [Internet]. 2021 [citado 20 de marzo de 2024]; 157(11):1362-9. Disponible en: https://doi.org/10.1001/jamadermatol.2021.3129Links ]

63. Wang H, Fu T, Du Y, Gao W, Huang K, Liu Z. Scientific discovery in the age of artificial intelligence. Nature [Internet]. 2023 [citado 20 de marzo de 2024]; 620(7972):47-60. Disponible en: https://www.nature.com/articles/s41586-023-06221-2Links ]

64. Cirillo D, Catuara-Solarz S, Morey C, Guney E, Subirats L, Mellino S. Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare. Npj Digit Med [Internet]. 2020 [citado 20 de marzo de 2024]; 3(1):1-11. Disponible en: https://www.nature.com/articles/s41746-020-0288-5Links ]

65. Sarker IH. Machine Learning: algorithms, real-world applications and research directions. SN Comput Sci [Internet]. 2021 [cited 2024 Mar 21]; 2(3):160. Disponible en: https://doi.org/10.1007/s42979-021-00592-x [ Links ]

66. Jussupow E, Spohrer K, Heinzl A, Gawlitza J. Augmenting medical diagnosis decisions? An investigation into physicians’ decision-making process with artificial intelligence. Inf Syst Res [Internet]. 2021 [citado 20 de marzo de 2024]; 32(3):713-35. Disponible en: https://pubsonline.informs.org/doi/abs/10.1287/isre.2020.0980Links ]

67. Murdoch B. Privacy and artificial intelligence: challenges for protecting health information in a new era. BMC Med Ethics [Internet]. 2021 [citado 20 de marzo de 2024]; 22(1):122. Disponible en: https://doi.org/10.1186/s12910-021-00687-3 [ Links ]

68. Larson DB, Magnus DC, Lungren MP, Shah NH, Langlotz CP. Ethics of using and sharing clinical imaging data for artificial intelligence: a proposed framework. Radiology [Internet]. 2020 [citado 20 de marzo de 2024]; 295(3):675-82. Disponible en: https://pubs.rsna.org/doi/full/10.1148/radiol.2020192536Links ]

69. Coiera E. Depender de los datos: la gran debilidad de la IA moderna. Rev Innova Salud Digit [Internet]. 2020 [citado 20 de marzo de 2024]; (1):23-6. Disponible en: https://www1.hospitalitaliano.org.ar/landing/innova-salud-digital/sites/default/files/2022-09/11_RevistaInnovaSaludDigitalN1_2020v2.pdfLinks ]

70. Baptiste D, Caviness-Ashe N, Josiah N, Commodore-Mensah Y, Arscott J, Wilson PR. Henrietta Lacks and America’s dark history of research involving African Americans. Nurs Open [Internet]. 2022 [citado 20 de marzo de 2024]; 9(5):2236-8. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9374392/Links ]

Recibido: 01 de Abril de 2024; Aprobado: 09 de Mayo de 2024

* Doctor en bioética aplicada, MEDsan Inc. Tecnólogo de Laboratorio Clínico, Saint Petersburg, Florida.

**Doctor en negocios, MEDsan Inc., CEO en Saint Petersburg, Florida.

***Doctor en bioética aplicada, director de la Licenciatura en bioquímica y farmacia de la Universidad Católica de Cuenca, Ecuador.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons