Es un hecho indiscutible que la inteligencia artificial es un elemento presente en muchas de las diversas facetas de la vida humana, tanto social como individual, y de la injerencia de los humanos en la vida de los seres que los rodean, desde bacterias, virus y priones, vegetales y hongos, insectos y moluscos hasta los reptiles, aves, mamíferos y antropoides, así como en los diferentes sistemas medioambientales en los que la vida tiene lugar. También es un hecho que un número cada vez mayor de decisiones encaminadas a incrementar el conocimiento y a llevar a cabo la aplicación de este tiene como fundamento criterios derivados del conocimiento integrado a los bancos de datos y programas de dicha inteligencia artificial, así como de las inferencias que tales sistemas puedan hacer al planteárseles un problema determinado.
La búsqueda de lo que hoy llamamos inteligencia artificial y de la posibilidad de crear máquinas inteligentes data de los años treinta del siglo pasado y su personaje central fue Alan Turing, quien en 1938 formuló interesantes teorías que le llevaron a aplicaciones prácticas acerca de lo que denominó "números computacionales" y "sistemas de lógica basados en ordinales". Una década después abría el campo de la creación de máquinas de cómputo automáticas y de máquinas (computadoras) inteligentes al plantear la pregunta de si las computadoras digitales pueden pensar, a la que dio una respuesta positiva que se calificó de herética y que actualmente se manifiesta como realidad. Baste señalar que ya hace dos décadas se disponía de computadoras capaces de autoprogramarse, planteándose su eficiencia en el manejo e investigación de variables relevantes y pobremente comprendidas, grandes cantidades de datos y problemas cuyo nivel de solución obtenible es aceptable, como fue claramente expuesto en Genetic Programming. An Introduction. On the Automatic Evolution of Computer Programs and its Applications, de Wolfang Banzhaf, Peter Nordin, Robert Kelle y Frank D. Francone, publicado en 1998.
En un texto colectivo, Artificial Intelligence, publicado en 1996 y coordinado por la doctora Margaret Boden, investigadora y catedrática de la Universidad de Sussex, fueron definidos los campos principales y las características que entonces se concibieron como propias de la inteligencia artificial y de sus áreas aplicativas. La inteligencia artificial fue definida como algo evolutivo, capaz de llevar la planeación a niveles de solución general de problemas, de planeación no linear y cada vez más sofisticada, lo que lleva a una obligada relación entre planeación y ciencia cognitiva.
El punto central es que existen máquinas capaces de aprender y de emplear ese conocimiento en el diseño de programas; en el caso de la investigación biomédica, que ofrezcan ventajas sobre el trabajo directo de los investigadores. El conocimiento aparece así como algo representable y esquematizable con modelos de bases lógicas, procedimentales, analógicas, probabilísticas e icónicas.
La historia de la inteligencia artificial ha distinguido tres etapas: la ingeniería del conocimiento, el paso de sistemas expertos de toma de decisiones a expertise como tal y la ingeniería sistemática del conocimiento, que se trueca en ontológica al desarrollar teorías formales.
A todo esto se suma la posibilidad de pasar de un manejo mecánico del conocimiento y sus datos a procesos de creatividad. El límite donde termina la posibilidad de la máquina inteligente y comienza la creatividad humana ha sido señalado como el punto crucial que permite a los humanos no ser objetos de decisiones computarizadas ajenas a lo humano, lo cual fue expuesto brillantemente por Garry Kasparov en su libro Deep Thinking, publicado en 2017, en el que va del campo del ajedrez a la generalización de la creatividad. En el campo de la medicina y la investigación biomédica, Boden delineó la importancia del desarrollo de lo que denominó "creatividad imposibilística", con el mapeo, la explotación y transformación de espacios conceptuales; así como de la "creatividad improbabilística", con la creación de modelos de asociación, de analogía e inducción. Uno de los resultados es el sistema de descubrimiento integrado, compuesto por nuevos marcos referenciales computacionales y en el que se combinan formas variadas de razonamiento en un sistema que reúne estados cualitativos organizados taxonómicamente e incluye casos representativos y sucesiones observadas de estados cualitativos (historia), leyes numéricas y data cuantitativa.
El paso para la formulación de hipótesis conducentes a experimentación y a su diseño y puesta en práctica dentro de los esquemas internacionalmente aceptados lleva a la obligatoriedad de evaluar dichas hipótesis y teorías y a encuadrarlas dentro de las revoluciones científicas, con la evaluación de dichas hipótesis, lo que se ha llamado sistema PI (process integration system), orientando la congruencia explicativa de una teoría, con análisis comparativos ante otras teorías.1
La bioética tiene frente a sí un inmenso campo de reflexión y la urgencia de emitir propuestas que ofrezcan marcos referenciales para los diversos campos de la investigación científica y, por supuesto, en lo concerniente a sus aplicaciones. En el terreno que aquí nos ocupa, el de la investigación biomédica, la urgencia es perentoria ya que están en juego la salud y el bienestar de individuos y comunidades humanas.
Podría pensarse que la dimensión bioética de la investigación en seres humanos es tema resuelto, al centrarse en la puesta en práctica de una moralidad basada en metas, es decir, en busca de un máximo de mejora en la salud y un mínimo de daños; al enfocarse en los resultados y en los deberes, considerando los contenidos de las acciones y el mejor interés de los participantes; así como en el respeto y promoción de los derechos de estos, en especial los derivados de su autonomía y su consentimiento. Lo anterior es retomado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura en su Recomendación sobre la ética de la inteligencia artificial, adoptada el 23 de noviembre de 2021, de la cual la doctora Dafna Feinholz hizo recientemente una documentada y clara presentación en el Programa Conmemorativo de los 30 años de la Comisión Nacional de Bioética, conjuntamente con el Programa Universitario de Bioética de la Universidad Nacional Autónoma de México. En dicha recomendación, dentro de un marco general de las características y problemas éticos derivados del uso de la inteligencia artificial, se destaca la importancia fundamental de los valores, entre los que se prioriza el respeto, la protección y promoción de los derechos humanos, las libertades individuales y la dignidad humana, así como garantizar la diversidad y la inclusión.
En el campo específico de la salud, catalogada como un "ámbito de actuación", se insiste en mantener "la solidaridad internacional para hacer frente a los riesgos e incertidumbres relacionados con la salud", así como tomar en cuenta las relaciones de pacientes con sus familias y el personal sanitario y buscar que los sistemas de inteligencia artificial sean seguros, eficaces y "probados desde el punto de vista científico y médico " Asimismo, se plantea "una debida atención a la privacidad".
En términos generales, llama la atención la escasa bibliografía específica dirigida al análisis bioético del empleo de inteligencia artificial en la investigación de seres humanos, lo que contrasta con la insistencia en las ventajas del disponer de grandes series de datos y de sistemas complejos de integración y análisis.
Los textos sobre ética de la inteligencia artificial poco tratan de la problemática en la investigación biomédica en seres humanos y llama la atención que existan propuestas tempranas para establecer códigos de ética para la inteligencia artificial en las cuales se señala que sus ventajas son la reducción de incertidumbre ante la evidente incertidumbre moral y epistémica, planteándose que la inteligencia artificial es segura y benéfica, además de que disminuye el relativismo y la justificación morales, con lo que adquiere una agencia moral.2
Estos temas van más allá al considerarse que un código no tiene valía por sí mismo, sino como instrumento fundamentado en aspectos teórico-filosóficos y validación social, por lo que se insiste en que la inteligencia artificial debe ser un vehículo para la promoción y defensa de la libertad y la autonomía de las personas; sustentarse en la transparencia y explicación de datos y procedimientos; así como incorporar y hacerse portavoz de valores y principios propios de la bioética: justicia, beneficencia y no maleficencia, responsabilidad, privacidad, confianza, sustentabilidad, protección y promoción de la dignidad de las personas y solidaridad para con ellas.3 Pero se insiste en la agencia moral de la inteligencia artificial y en otorgarle un estatus moral propio y no derivado del humano que la maneja, llegando a conferirle una dimensión ontológica en la que puede influir en una naturaleza humana perfectible. Lo anterior presupone una interacción continua entre humanos y computadoras, pero genera dudas: ¿el humano dirige y acota la inteligencia artificial?, ¿existen conflictos de interés?, ¿se protege al participante en las investigaciones en su vulnerabilidad?, ¿se pueden individualizar variables personales y socioculturales?4
En síntesis, la inteligencia artificial es evidentemente un medio importante para plantear investigaciones con perspectivas deslumbrantes, pero queda en pie la necesidad de que siempre sea un instrumento para los humanos y que estos sean los agentes morales con responsabilidad ante los sujetos que libremente acepten participar en los proyectos de investigación propuestos, así como que la aplicación de dichos proyectos considere la individualización de los sujetos a tratar.