Introducción
La inteligencia artificial (IA) es un término que quizás nos recuerda al terreno de la ciencia ficción, sin embargo, esta tecnología no es nueva y ya está integrada en nuestro día a día. Por ejemplo, los asistentes de voz y el reconocimiento de imágenes funcionan bajo IA. Los algoritmos, que son secuencias de instrucciones finitas y bien definidas, procesan y transforman imágenes, palabras o frases de un lenguaje natural a un formato legible para programas computacionales. Durante este proceso, los algoritmos identifican reglas para relacionar datos y extraer patrones e información que les permiten llegar a predicciones que facilitan la toma de decisiones y/o la resolución de problemas.
Al igual que otras disciplinas computacionales, como la quimioinformática, la IA es de gran utilidad para extraer información de un conjunto de datos y aportar conocimientos prácticos o útiles (Gasteiger, 2016). En la ciencia, cada vez es más común encontrar publicaciones que incluyen términos de IA como“machine learning” (ML), refiriéndose al aprendizaje automático o aprendizaje de máquinas, o como “deep learning” (DL), aludiendo al aprendizaje profundo. La relación entre los conceptos antes mencionados puede ser visualizada como círculos concéntricos, donde la IA representa el área general de estudio como el círculo más grande. Dentro se encuentra ML, que floreció después, y, finalmente, DL, que es parte de ML y está impulsando la explosión de la IA actual (Figura 1).
En diversas áreas de Química, incluyendo Química Farmacéutica, la IA se ha utilizado desde la década de los 50 (Gasteiger, 2020). Sin embargo, los avances tecnológicos y el desarrollo paralelo de teorías y modelos han acelerado su aplicación en años recientes. La idea de continuar adoptando la IA en el proceso de desarrollo de fármacos representa una manera de enfrentar desafíos como las bajas tasas de éxito, en donde cada vez se invierte más dinero en la obtención de nuevos medicamentos y solo pocas moléculas llegan a fases clínicas. En general, el tiempo medio requerido para el descubrimiento, estudios preclínicos y clínicos, aprobación y comercialización de un medicamento es, en total, de unos dieciséis años y cuesta una mediana de 985 millones de dólares, incluyendo los costos de los ensayos clínicos fallidos (Wouters et al., 2020). La implementación de IA, según los expertos de la industria farmacéutica, puede reducir el tiempo de desarrollo de un nuevo medicamento a solo dos o tres años (Lamberti et al., 2019). Para ilustrar el alcance actual de los métodos computacionales (particularmente de la IA) en el diseño de fármacos, un caso destacado es el de la compañía estadounidense Insilico Medicine, que generó un modelo de IA llamado GENTRL (GENerative Tensorial Reinforcement Learning), el cual diseñó e identificó con éxito ¡en solo 21 días!, seis inhibidores de cinasas del receptor DPP1 (vinculado a la fibrosis pulmonar), tardando en total 46 días, incluyendo la síntesis y evaluación biológica (Zhavoronkov et al., 2019). Esta gran velocidad de descubrimiento de compuestos candidatos también refleja una gran coordinación de los equipos de investigación multidisciplinarios (cómputo, síntesis química y evaluaciones biológicas). Desde luego, habrá que considerar también el tiempo y los costos de otras fases de desarrollo de los inhibidores de cinasas como fármacos.
Aunque los avances recientes en IA pueden verse como una amenaza a muchos empleos, especialmente los asociados al trabajo experimental (los referidos como wet lab), los avances en la IA se celebran porque se cree que, si son empleados con ética e interpretados en forma adecuada, contribuirán enormemente al mejoramiento de la sociedad. No obstante, en muchas ocasiones, el avance acelerado en la innovación y en la tecnología han generado expectativas exacerbadas, pero poco realistas. Esto se debe al uso irracional y únicamente guiado por la moda de usar nuevas tecnologías, sin llegar a estar conscientes de las limitaciones inherentes que tienen. En este sentido, la automatización y la innovación en el descubrimiento de fármacos deben ser rápidas, pero también sostenibles a largo plazo (Özdemir y Hekim, 2018).
Recientemente, se integró el término de “inteligencia aumentada” al modelo de asociación entre inteligencia humana (IH) e IA con el fin de mejorar el rendimiento cognitivo, el aprendizaje, la toma de decisiones y la generación de nuevas experiencias (Gartner Glossary, s.f.). Es decir, con este modelo no se busca que las máquinas reemplacen a los científicos, sino que los científicos comprendan las metodologías de IA, permitiéndoles pasar al ámbito de la biología de sistemas y aprovechar su propia experiencia, junto con las capacidades que ofrecen los modelos de IA (My Intelligent Machine, 2021; Bazoukis et al., 2022). Es así que se está dando un cambio en el paradigma del desarrollo de fármacos usando métodos de cómputo. En palabras del Dr. Artem Cherkasov (University of British Columbia y Vancouver Prostate Center, Canada) se pueden reconocer tres etapas:
Pasado: Diseño de fármacos asistido por computadora.
Presente (2023): Diseño de fármacos con inteligencia aumentada.
Futuro: Diseño de fármacos asistido por el ser Humano.
En esta propuesta del Dr. Cherkasov se hace énfasis en el rol de la inteligencia aumentada y la tendencia hacia el futuro en el desarrollo de fármacos con la automatización casi total (“asistido por el ser Humano”).
Históricamente, los inicios de IA en el descubrimiento y desarrollo de fármacos están en los llamados estudios cuantitativos de relaciones estructura-actividad (QSAR, de las siglas en inglés quantitative structure-activity relationships) que comenzaron a emplearse en la década de los 60’ (Hansch y Fujita, 1964). En estos estudios, que aún se siguen utilizando, el objetivo es encontrar un modelo matemático que sea capaz de aproximar las asociaciones intrínsecas entre estructuras químicas -codificadas por una serie de descriptores o representaciones- que son una parte esencial de cualquier modelo de IA) con la actividad biológica. Aquí cabe mencionar que, como otras tecnologías, el QSAR en algunos casos es empleado de manera irracional y las malas prácticas incentivadas por la “popularidad” llevaron a crear falsas expectativas hasta el punto de crear la noción de la llamada “decepción del QSAR” (S. R. Johnson, 2008).
Recientemente, dentro de la investigación de fármacos, los algoritmos de IA han ganado atención de manera constante y se están viendo numerosas aplicaciones dentro de las diferentes etapas del proceso de descubrimiento y desarrollo de fármacos (Figura 2). Por ejemplo, en las primeras etapas, los métodos de IA han tenido un impacto sustancial en la predicción de la estructura tridimensional (3D) de proteínas (Jumper et al., 2021). También, han ayudado a sugerir un gran número de compuestos similares a fármacos para ensayar de manera efectiva su actividad biológica/bioquímica en estudios de cribado de alto rendimiento (HTS, por sus siglas en inglés, high throughput screening ). Los datos de compuestos químicos, proteínas y ensayos biológicos generados hasta el momento han sido utilizados y transformados por los métodos de IA para identificar de manera efectiva objetivos biológicos de compuestos bioactivos y para predecir el potencial terapéutico de pequeñas moléculas orgánicas. El papel de la IA en la predicción de propiedades relacionadas con la absorción, distribución, metabolismo, eliminación y toxicidad (ADME-Tox) ha sido parte importante en la toma de decisiones, ya que facilita la selección de compuestos para su síntesis y evaluación biológica. Un área de investigación que crece en paralelo con las tecnologías disponibles es la relacionada con la síntesis química. En esta área, los modelos de IA se utilizan para planear y optimizar las síntesis de compuestos, para estimar la accesibilidad sintética de compuestos presentes en bibliotecas químicas (o quimiotecas) que pueden llegar a tener miles o millones de compuestos, y para automatizar el proceso de síntesis (Schneider, 2018).
Los métodos de IA también se emplean en etapas preclínicas para identificar biomarcadores específicos de tejidos (ensayos in vitro) y en etapas clínicas para la selección de pacientes en ensayos clínicos, para identificar nuevos usos de medicamentos ya existentes (reposicionamiento de fármacos) (Olascoaga-del Angel, 2022; Saldivar-González y Medina-Franco, 2021) y en farmacovigilancia, para comprender y prevenir efectos adversos de los fármacos (Mak y Pichika, 2019). Sin embargo, estas últimas aplicaciones quedan fuera de la revisión de este artículo, que tiene como objetivo revisar y discutir las aplicaciones de IA en la identificación de compuestos bioactivos como potenciales candidatos a fármacos.
Métodos de IA en el diseño de fármacos
La ciencia del siglo XXI está sufriendo grandes transformaciones debido al creciente acceso de información disponible en bases de datos, muchas de ellas de acceso público. En cierto modo, estamos ante una nueva manera de percibir la Química y la Biología, centradas en la obtención y procesamiento cuantitativo de datos biológicos (bioinformática), datos de moléculas “pequeñas” con peso molecular menor a 1000 Da (quimioinformática), e incluso datos clínicos (informática biomédica) que propician el análisis inductivo y la simulación de sistemas vivos (López-López et al., 2021). Para obtener sentido de la información contenida en los datos se requiere de nuevas formas de pensar y aprender e, incluso, nuevas metodologías de trabajo (Hadley, 2004). La IA, y en particular las metodologías de ML y DL, han mostrado ser eficientes tanto en términos de mejora del rendimiento como de reducción de gastos dentro del diseño de fármacos (Kolluri et al., 2022). Cabe enfatizar que en todos los casos, ML y DL dependen de la existencia de datos y, como en cualquier proceso de aprendizaje, la calidad de los modelos y el eventual conocimiento que se genere dependerá en gran medida de la calidad y confiabilidad de los datos que se emplearon para el entrenamiento.
Aprendizaje automático en el diseño y descubrimiento de fármacos
Los enfoques de ML proporcionan un conjunto de herramientas y algoritmos bien establecidos que permiten crear modelos que se entrenan usando una gran cantidad de datos para realizar predicciones y ofrecer soluciones a problemas específicos. Según la tarea que se quiera efectuar y los datos disponibles, será más adecuado trabajar con un algoritmo u otro, o eventualmente combinaciones de ellos. No obstante, es importante tener en mente que, el aprendizaje automático puede usar los datos de varias maneras diferentes para obtener información significativa.
En la literatura científica, se pueden encontrar aplicaciones exitosas de ML en el área de diseño de fármacos que usan diversos algoritmos (Priya et al., 2022; Vamathevan et al., 2019), algunos de estos algoritmos y aplicaciones se encuentran descritos en la Figura 3. Como se observa, los algoritmos de ML tienen tres vertientes principales: el aprendizaje supervisado, el aprendizaje no supervisado y el aprendizaje por refuerzo.
En el aprendizaje supervisado, los algoritmos “aprenden” de los datos introducidos y etiquetados (clasificados) con ayuda de intervención humana. Existen dos tipos principales de algoritmos de aprendizaje supervisado:
Clasificación: como su nombre lo indica, estos algoritmos clasifican un objeto dentro de dos o más clases (por ejemplo: activo e inactivo; tóxico o no tóxico). Un ejemplo que emplea algoritmos de clasificación es el programa de predicción de actividades biológicas PASS (Prediction of Activity Spectra for Biologically Active Substances) (Lagunin et al., 2000). Las predicciones de actividad basada en la estructura de nuevos compuestos que realiza PASS, se basan en un clasificador (Naive Bayes) entrenado con datos de más de 30000 compuestos biológicamente activos.
Regresión: generalmente asociados a la predicción de un valor numérico. En química farmacéutica, los modelos QSAR son el ejemplo más representativo. Estos modelos permiten relacionar las propiedades fisicoquímicas y moleculares (en general, descriptores) de compuestos con una actividad biológica determinada in silico o experimentalmente, para posteriormente predecir valores como la concentración inhibitoria media (IC50), constante de inhibición (Ki) y dosis efectiva media (DE50) de nuevos compuestos.
A diferencia del caso anterior, los métodos no supervisados se emplean con fines exploratorios para desarrollar modelos que permitan agrupar los datos de una forma no especificada por el usuario (aquí no existe la intervención humana para etiquetar los datos). Existen tres tipos de algoritmos para ML no supervisado:
Agrupamiento (clustering): clasifican en grupos los datos de salida. Estos algoritmos suelen usarse para identificar características comunes de una clase particular de compuestos. Una aplicación sencilla es la selección de compuestos en estudios de cribado virtual, en donde los compuestos se agrupan de acuerdo con propiedades o resultados del acoplamiento molecular similares a un compuesto de consulta (generalmente un compuesto activo y validado experimentalmente). Otra aplicación se encuentra en el perfilado basado en imágenes, en donde la basta cantidad de datos presentes en las imágenes biológicas se representa como un perfil multidimensional, del cual pueden extraerse patrones relevantes asociados a enfermedades, a la comprensión de los mecanismos de la enfermedad y a la predicción de la actividad, la toxicidad o el mecanismo de acción de un fármaco (Chandrasekaran et al., 2021).
Asociación: determinan reglas de asociación dentro de conjuntos de datos. Los algoritmos de asociación son capaces de reconocer patrones ocultos en moléculas que escapan de modelos tradicionales y la intuición de la química farmacéutica debido al gran conjunto de variables y parámetros que deben considerarse en paralelo para el diseño de fármacos. Con estos algoritmos es posible identificar asociaciones objetivo-objetivo, ligando-objetivo y ligando-efecto biológico, lo cual puede ayudar en la búsqueda de eventos adversos (Noguchi et al., 2018) y para el reposicionamiento de fármacos (Masoudi-Sobhanzadeh y Masoudi-Nejad, 2020).
Reducción de dimensiones: usados para la visualización de datos. Los algoritmos de reducción de dimensiones mapean conjuntos de datos a subespacios de menor dimensión derivados del espacio original, generalmente a espacios de 2 o 3 dimensiones, que son los que puede interpretar el ojo humano. La posibilidad de integrar más elementos visuales a estas representaciones facilita las interpretaciones y teorías sobre los datos que obtenemos y analizamos. Por ejemplo, es posible mapear propiedades de interés como la actividad biológica mediante una escala de color continua, o bien, variando el tamaño de los puntos o usando formas para variables categóricas. En el diseño de fármacos, se utilizan para la visualización del espacio químico, que a su vez permite evaluar la diversidad de diferentes conjuntos de datos, explorar las relaciones estructura-propiedad (actividad biológica) y en el diseño de bibliotecas químicas (Saldívar-González y Medina-Franco, 2022).
En el aprendizaje por refuerzo, los algoritmos aprenden por sí solos el comportamiento a seguir mediante la observación del estado de su entorno y mediante su interacción con una serie de acciones por las cuales recibe recompensas y penalizaciones. Como resultado, una secuencia de decisiones exitosas hará que el proceso se “refuerce” porque resuelve mejor el problema en cuestión. Algunos enfoques de diseño de novo están utilizando algoritmos de aprendizaje por refuerzo para obtener compuestos dirigidos que sean eficaces y seguros (ver Sección Diseño de novo de nuevos compuestos) (Popova et al., 2018). Otra aplicación se encuentra en la farmacología de sistemas, enfoque potencialmente efectivo para diseñar terapias personalizadas para enfermedades complejas e intratables a la fecha (Tan et al., 2022).
Redes neuronales y aprendizaje profundo en el diseño de fármacos
El DL es un método específico de ML que incorpora redes neuronales para aprender de los datos de manera iterativa a partir de una combinación de algoritmos supervisados y no supervisados. Si bien, existe cierta controversia sobre si los modelos de DL son superiores en cuanto a rendimiento a enfoques de ML, DL ofrece varias ventajas (Chen et al., 2018). Por ejemplo, los modelos de DL permiten la extracción automática de características durante el procedimiento de entrenamiento. En este proceso se generan representaciones comprimidas de estructuras moleculares (que únicamente son interpretables por la computadora). Esta compresión de las estructuras es prometedora para trabajar con compuestos de mayor tamaño y complejidad como péptidos y microciclos (moléculas que contienen un anillo con nueve o más átomos) (David et al., 2020), y para el aprendizaje multitarea (Ramsundar et al., 2015). En principio, estas representaciones comprimidas, que no podemos interpretar directamente, pero sí interconvertir después a formatos legibles, podrían codificar información relacionada con varios parámetros en paralelo, como: selectividad, absorción, estabilidad metabólica, toxicidad y síntesis, para optimizar el diseño de nuevos compuestos.
En diseño de fármacos, los algoritmos de DL también se han utilizado en tareas como el diseño de novo (sección 3.2), para obtener información contenida en estudios de relaciones estructura-actividad, en cribado virtual y en la predicción de propiedades farmacocinéticas, por mencionar algunos ejemplos (Gawehn et al., 2016). Dentro de las limitaciones de DL, que se discuten en la sección 5, se encuentran su baja interpretabilidad y bajo rendimiento en escenarios de pocos datos (Lenselink et al., 2017).
Aplicaciones de IA en diseño de fármacos
En esta sección abordaremos ejemplos sobresalientes del uso de métodos de IA en el proceso de descubrimiento y desarrollo de nuevos compuestos como candidatos a fármacos. Mencionaremos aplicaciones en la predicción de estructuras 3D de proteínas, en el diseño de compuestos, en la evaluación sistemática de objetivos o blancos moleculares, en la predicción de propiedades ADME-Tox y en la síntesis de nuevos compuestos.
Predicción de estructura 3D de blancos moleculares terapéuticos
Una de las estrategias del diseño de fármacos que ha sido exitosa, es el diseño basado en la estructura del blanco terapéutico (como receptores de membrana, incluyendo los receptores acoplados a proteínas G, enzimas, ácidos nucleicos, etc.). Ejemplos notables de diseño de fármacos basados en el conocimiento de la estructura -o modelos de ella- son antivirales como el relenza y fármacos empleados para el tratamiento del síndrome de inmunodeficiencia adquirida (SIDA) (Kumar et al., 2014). Técnicas como la cristalografía de rayos X, resonancia magnética nuclear y microscopía electrónica, están haciendo contribuciones fundamentales para elucidar la estructura 3D de blancos moleculares. Esto, a su vez, aporta información invaluable para dirigir el diseño de compuestos que interactúan de manera favorable con estas estructuras. La hipótesis de trabajo es que compuestos con afinidad hacia sitios funcionales (clave) de estas estructuras, potencialmente pueden inducir o traducirse en un efecto clínico con utilidad terapéutica. A su vez, las estructuras 3D se pueden emplear en el diseño asistido por computadora, utilizando técnicas como acoplamiento molecular, diseño basado en fragmentos y diseño de novo (Batool et al., 2019).
A pesar de que a la fecha de escritura de este manuscrito (julio, 2022) están disponibles en Protein Data Bank (Berman et al., 2000) (el Banco de Datos de Proteínas más grande de dominio público) las coordenadas 3D de más de 192,000 estructuras, incluyendo más de 78,000 proteínas, aún resulta tardado y costoso elucidar experimentalmente las estructuras de todos los blancos terapéuticos. En este sentido, la IA está teniendo avances sorprendentemente útiles para predecir, con gran precisión, el plegamiento de las proteínas a partir del conocimiento de su secuencia. En 2021 se publicó el primer método computacional capaz de predecir estructuras de proteínas con precisión atómica, incluso en casos en los que no se conoce una estructura similar. La red neuronal, llamada AlphaFold, analiza la distancia entre los aminoácidos adyacentes y los ángulos correspondientes de los enlaces peptídicos para predecir con precisión la estructura 3D de proteínas (Jumper et al., 2021). AlphaFold ha generado la imagen más completa y precisa del proteoma humano (Tunyasuvunakool et al., 2021) y ya ha demostrado su utilidad a la comunidad experimental. Algunos investigadores han usado AlphaFold para dar sentido a los datos experimentales que se obtienen mediante la cristalografía de rayos X y la microscopía crioelectrónica (M. Gupta et al., 2021). Se espera que su uso acelere la investigación de fármacos basada en la estructura y genere nuevas vías de conocimiento científico.
Diseño de novo de nuevos compuestos
El diseño de novo, es decir, el diseño “desde cero”, no es un concepto que únicamente se aplique en la química. En 2018, un retrato hecho por un algoritmo de IA abrió nuevas interrogantes respecto a la creación y concepción de lo que consideramos arte. La obra Edmond de Belamy generó numerosas críticas que cuestionan la capacidad creativa (o imitativa) de los modelos de IA, que incluso pueden trasladarse a la Química Farmacéutica (Epstein et al., 2020). Otro ejemplo notable de los modelos generativos se observa en la creación de obras literarias, en donde se han generado desde poemas hasta libros de campos expertos del área de investigación (Petsko, 2019). En el diseño de fármacos, los modelos generativos se utilizan principalmente para diseñar nuevos compuestos químicos (Bajorath, 2022). La Figura 4 resume algunas arquitecturas de DL empleadas en el diseño de novo, que son: Autocodificadores Variacionales (VAE, del inglés, Variational Autoencoders) (4a), Redes Generativas Antagónicas (GAN, Generative Adversarial Networks) (4b) y Redes Neuronales Recurrentes (RNN, Recurrent Neural Network) (4c). Adicionalmente, pueden diseñarse enfoques híbridos que usan una de las arquitecturas mencionadas anteriormente en conjunto con algoritmos de aprendizaje por refuerzo. Un ejemplo de enfoque híbrido es GENTRL (Zhavoronkov et al., 2019), el modelo desarrollado por Insilico Medicine para generar inhibidores de cinasas (discutido en la Introducción) (4d). GENTRL usa VAE que están compuestas de tres elementos: un codificador, un decodificador y una función de pérdida. El codificador toma el dato de entrada y aprende a representarlos de manera compacta, mientras que el decodificador toma esa versión comprimida y reconstruye el dato original a la salida. La función de pérdida se aplica al momento de obtener la representación compacta, también conocida como “espacio latente”, y consiste en mantener este espacio dentro de una distribución normal para así minimizar la diferencia entre la imagen original y la imagen reconstruida. Al momento de generar el espacio latente también se agrega un componente de ruido que permite agregar aleatoriedad a las VAE con el fin de que generen moléculas novedosas (diferentes a las usadas en el entrenamiento).
Adicional a esto, se puede agregar otra red neuronal, que se encarga de optimizar el proceso, garantizando que las moléculas generadas no solo sean viables estructuralmente, sino que además tengan el potencial de inhibir o modular las proteínas de interés. Para el caso de GENTRL, se utilizó aprendizaje por refuerzo. De esta forma, el espacio latente generado por las VAE tiene características similares a las de moléculas que ya se usan para el tratamiento de la fibrosis pulmonar. La red neuronal genera una señal de recompensa que indica a las VAE que el código generado resulta adecuado. De lo contrario, genera una señal de castigo que les enseña a no generar este tipo de moléculas.
Las GAN, por su parte, están integradas por dos redes neuronales que compiten entre sí: un generador y un discriminador. El objetivo del generador es fabricar artificialmente salidas que sean indistinguibles para el discriminador de los datos reales. Mientras que el objetivo del discriminador es diferenciar ejemplos reales de aquellos que fueron producidos por el generador adversario. Este tipo de arquitectura ha sido muy utilizada en la generación de imágenes y obras de arte e incluso se ha alertado de aplicaciones de software para la manipulación mal intencionada de imágenes (Wang et al., 2022). En el diseño de fármacos, las GAN han permitido generar moléculas a partir de la expresión génica inducida por compuestos (Mendez-Lucio et al., 2021) y se explora su aplicación para encontrar compuestos potencialmente activos en campañas de alto rendimiento, en donde equipos automatizados analizan rápidamente miles o millones de muestras en busca de compuestos activos en modelos con tejidos, órganos o células aisladas.
Las RNN, se diferencian por analizar datos secuenciales como texto, voz, audio, video, entre otros. En el diseño de nuevos compuestos, las RNN extraen la información automáticamente a nivel gramatical y semántico a partir de representaciones moleculares en formato de cadenas de texto, como son los SMILES (Simplified Molecular Input Line Entry System) (David et al., 2020). Cuando se utilizan RNN para generar moléculas, se seleccionan las mejores moléculas y se utilizan para volver a entrenar la red a través del aprendizaje por transferencia. El aprendizaje por transferencia permite que el conocimiento se transfiera entre tareas y ha demostrado ser una forma eficiente de mejorar la precisión de los modelos y en este caso, de generar una mayor proporción de moléculas químicamente válidas (A. Gupta et al., 2018).
El diseño generativo ha logrado avances considerables en un período de tiempo relativamente corto, sin embargo, aún se requiere generar más evidencia de su eficiencia con respecto a casos de prueba validados experimentalmente (Schneider y Clark, 2019). Los desafíos actuales de los enfoques generativos incluyen la síntesis (la mayoría de los modelos generativos no brindan información sobre cómo se puede sintetizar una molécula) y la existencia de múltiples soluciones para cualquier propiedad dada (Jiménez-Luna et al., 2021).
Evaluación sistemática de objetivos o blancos moleculares
Comprender el mecanismo por el cual un compuesto ejerce efecto terapéutico es esencial para el diseño y optimización de fármacos. Actualmente, la identificación de objetivos biológicos para compuestos bioactivos se considera un cuello de botella para el diseño informado de “sondas químicas” (moléculas que ayudan a elucidar la función biológica de proteínas) y fármacos líderes (Rodrigues y Bernardes, 2020).
Afortunadamente, la experimentación de alto rendimiento ha generado una gran cantidad de datos químicos y biológicos que permiten producir modelos para vincular objetivos biológicos con compuestos bioactivos. Esta información también está generando evidencia creciente de que los compuestos rara vez son selectivos para un solo objetivo biológico dado. La interacción de un compuesto que involucra a varias macromoléculas relacionadas o no relacionadas es conocida como polifarmacología, y está siendo aprovechada en enfoques racionales para diseñar fármacos multi-objetivo y en el reposicionamiento de fármacos (Reddy y Zhang, 2013).
Los crecientes esfuerzos computacionales para la identificación de objetivos incluyen el desarrollo de modelos de ML y servidores web para analizar el potencial medicinal de compuestos anotados en las bases de datos químicas públicas (Rodrigues y Bernardes, 2020). La predicción que hacen los modelos se basan en el principio de similitud química, el cual sugiere que moléculas con estructuras químicas semejantes tienen propiedades semejantes y por ende se unen a objetivos biológicos similares (Maggiora et al., 2014); y/o en los principios de la biofísica de las interacciones moleculares, cuanto mayor sea la complementariedad entre ligando y receptor, mayor será la afinidad y mayor será su efecto en la regulación de la actividad biológica.
Pocas de estas herramientas incluyen estructuras complejas como productos naturales y péptidos en sus conjuntos de entrenamiento, por lo que podrían no predecir correctamente los objetivos biológicos de estos compuestos (Saldívar-González et al., 2022), ni podrían descubrir una nueva biología como si lo hacen experimentos de laboratorio. No obstante, representan una oportunidad única para analizar el potencial medicinal de la gran cantidad de compuestos presentes en repositorios públicos.
Predicción de propiedades ADME-Tox de moléculas pequeñas
Como vimos en secciones anteriores, la cantidad de moléculas orgánicas que potencialmente podrían sintetizarse en un programa de descubrimiento de fármacos es muy grande, aproximadamente de 1063 (Walters, 2019). Esta es una cifra incluso mayor que el número de estrellas en el cielo que se conocen a la fecha. Para limitar el número de moléculas a considerar en el mundo real, han surgido aplicaciones de IA para predecir las propiedades ADME-Tox de una molécula antes de su síntesis. Propiedades como la solubilidad acuosa, la permeabilidad intestinal y la unión a proteínas plasmáticas son parámetros importantes que considerar para conseguir la exposición sistémica de un fármaco oral. De igual forma, conocer con qué rapidez se metaboliza y se elimina un fármaco, cuál es el mecanismo de acción y qué metabolitos forma, determinan el éxito de un medicamento, ya que estas propiedades tienen un impacto significativo sobre la biodisponibilidad y seguridad de un fármaco. La toxicidad también es un parámetro crítico que evaluar en el diseño de fármacos y en industrias como la agroquímica y la cosmética (Roncaglioni et al., 2022). La cantidad de causas posibles para que un compuesto falle y tenga efectos adversos es grande y, como tal, la cantidad de propiedades para verificar en un laboratorio puede volverse muy costosa y consumir mucho tiempo. Por este motivo, se han hecho esfuerzos considerables para desarrollar modelos computacionales que permitan predecir conjuntos heterogéneos de propiedades ADME-Tox (Butina et al., 2002). En este contexto, los modelos de IA han ayudado a aumentar la precisión de las predicciones sobre la eficacia y seguridad de los medicamentos (Maltarollo et al., 2015).
Actualmente, existen repositorios públicos que están haciendo más accesible el uso y la comparación de modelos de ML para la predicción de propiedades ADME-Tox (Bhhatarai et al., 2019; Roncaglioni et al., 2022).
Síntesis química
Las técnicas de IA también se están utilizando para analizar información de síntesis química disponible en la literatura y bases de datos. Esto, con la finalidad de establecer diversas mejoras en el proceso de diseño de fármacos, que se van desde las primeras etapas, centrándose en los ciclos de diseño, síntesis, prueba y análisis, hasta los procesos de fabricación a gran escala (Miljković et al., 2021). Por ejemplo, se pueden comparar y procesar diferentes reacciones para producir un compuesto determinado. Es importante que, además de los reactivos involucrados, se consideren otras variables como solventes (si es el caso), temperatura, tiempo, presión y, en general, las condiciones de reacción. Esta información puede derivar en: a) análisis retrosintéticos que dividen el problema en subproblemas y generan sugerencias de síntesis paso a paso, b) en la recomendación de las condiciones de reacción que conducirán a una reacción directa exitosa y c) en la predicción de productos a partir de un conjunto de materiales y condiciones iniciales que se usa para validar los pasos sintéticos propuestos (Struble et al., 2020). Es fundamental mencionar que, para que una herramienta de planificación sintética verdaderamente ayude a aumentar el conocimiento químico y acelere el proceso de síntesis, debe ser fácil de usar e intuitiva en su manejo e interpretación de resultados. Además, las rutas sugeridas deben derivar en materiales que puedan adquirirse en el mercado.
Otras aplicaciones de la IA en el proceso de síntesis incluyen la predicción de la accesibilidad sintética y sus costos relacionados (Thakkar et al., 2021). Una estimación de la accesibilidad sintética, o bien, ejecutar filtros relacionados con el coste de los reactivos, en principio, podría ayudar a filtrar más las bases de datos iniciales y/o priorizar compuestos.
Aunque ya existen sintetizadores automáticos como AutoSyn (Collins et al., 2020) y RoboRXN (Vaucher et al., 2020), se espera que en un futuro la automatización de la síntesis química tenga un papel protagónico en el proceso de descubrimiento de fármacos. Incluir esta tecnología puede ser un factor vital para aumentar la productividad de los proyectos de descubrimiento de fármacos, garantizar la reproducibilidad y la transferibilidad de los protocolos de síntesis de un laboratorio a otro y podrían hacer que la planeación y la síntesis de moléculas complejas sea cada vez más rutinaria.
Medicina personalizada: el futuro de la implementación de IA en el uso terapéutico de fármacos
En el diseño y desarrollo de fármacos clásico (ya sea dirigido a una o varios blancos terapéuticos) se asume que la respuesta clínica de los pacientes es aproximadamente la misma. Esto incluye el efecto terapéutico deseado, así como los efectos adversos que se quieren disminuir (discutidos en la sección 3.4). Sin embargo, es bien sabido que la respuesta a un tratamiento clínico puede variar, a veces en forma dramática, de paciente a paciente. Esta variabilidad entre la población está asociada a muchos efectos como factores genéticos, y epigenéticos. Todos estos factores son difíciles de considerar en forma sistemática desde el inicio en un programa de diseño de fármacos y, por tanto, dificulta aún más el uso terapéutico exitoso de los fármacos, especialmente en el caso de enfermedades complejas como cáncer y enfermedades neurodegenerativas. I-PREDICT (Sicklick et al., 2019) es un ejemplo de un estudio diseñado para optimizar ensayos clínicos que brindó tratamientos individualizados a pacientes con cáncer mediante la secuenciación del ADN tumoral y recomendaciones oportunas para el tratamiento individualizado con terapias combinadas. En este contexto, la adopción de IA y otras tecnologías innovadoras, y el uso de la gran información disponible en múltiples fuentes (e.g., farmacovigilancia), está permitiendo tratamientos específicos, más precisos y cambiando el sistema de salud hacia un futuro donde la medicina es personalizada, predictiva, preventiva y participativa (las ‘4P’) (K. B. Johnson et al., 2021). Se espera que, durante las próximas décadas, la inclusión de datos más diversos que incluyan poblaciones poco estudiadas, la implementación de estrategias para minimizar la exclusión y el sesgo, y las nuevas tecnologías de IA tengan un impacto significativo en los tratamientos y en los resultados de los pacientes, particularmente en aquellos en áreas de la medicina con necesidades insatisfechas.
Consideraciones y recomendaciones de aspectos generales críticos de IA
La Tabla 1 resume aspectos generales que, en la opinión de los autores, se deben considerar en IA en el contexto de investigación, diseño, desarrollo y uso terapéutico de fármacos. La lista de tópicos no es exhaustiva y remarca algunos puntos especialmente relevantes a tomar en cuenta cuando se aplican métodos de IA.
Aspectos críticos | Consideraciones y recomendaciones |
---|---|
Acceso a datos robustos y confiables |
|
Predicciones y usos “éticos”a de la información generada con IA |
|
Evaluación de modelos de IA |
|
Interpretabilidad de modelos de IA |
|
Propiedad intelectual (PI) |
|
Diversificación en las aplicaciones del diseño de fármacos |
|
Hacia la automatización (absoluta) del proceso de diseño de fármacos |
|
a Se ha cuestionado si las predicciones de modelos de IA pueden ser éticas o no. La ética es un factor humano que está a expensas de la subjetividad (e.g., moral, sesgos culturales, económicos y sociales) que pueden tener los datos (por ejemplo, iniciativa de Beca de Ética GSK.ai-Stanford).
Conclusiones
En el descubrimiento y desarrollo moderno de fármacos se utiliza una combinación de enfoques computacionales, experimentales y clínicos para identificar nuevos candidatos a fármacos. Hasta el momento, no existe una solución única que garantice un descubrimiento exitoso de fármacos, por lo tanto, es importante permanecer receptivo a las nuevas tecnologías. La llamada “inteligencia aumentada” (IA + IH), tiene aplicaciones en el proceso de descubrimiento y desarrollo de fármacos, en la toma de decisiones, y también en el desarrollo de terapias más efectivas a partir de fármacos ya aprobados (medicina de precisión o personalizada). Aún quedan retos que enfrentar en la implementación de la IA en el proceso de descubrimiento, diseño y uso terapéutico de fármacos, como la falta de estándares en los datos generados y en las bases de datos disponibles, y la falta de métodos robustos y estandarizados de validación. La variabilidad en la respuesta entre los pacientes a un mismo tratamiento terapéutico, en especial en enfermedades complejas, impone otro reto. Retos adicionales por abordar son la falta de transparencia y colaboración de datos (que es un balance o disyuntiva entre la ciencia abierta y la propiedad intelectual); la falta de personal entrenado interdisciplinariamente y la comunicación humana eficiente entre los grupos o equipos de investigación multidisciplinarios. No obstante, los métodos de IA ofrecen una oportunidad para diversificar aplicaciones en diseño de fármacos, proporcionar mejores modelos predictivos, agilizar las investigaciones y ayudar a proponer tratamientos efectivos en forma personalizada. La validación experimental y adecuada de los resultados de IA que hay hasta ahora permitirá retroalimentar y mejorar los modelos existentes y establecerá las bases a nuevos paradigmas.
Se espera que la integración adecuada de métodos básicos y aquellos más sofisticados de bioinformática, computación, nanotecnología y farmacogenómica conduzca a la siguiente etapa de avances en el descubrimiento y uso terapéutico exitoso de fármacos.