Servicios Personalizados
Revista
Articulo
Indicadores
Links relacionados
- Similares en SciELO
Compartir
Salud Pública de México
versión impresa ISSN 0036-3634
Salud pública Méx vol.50 no.6 Cuernavaca nov./dic. 2008
ENSAYO
Racionalidad científica, causalidad y metaanálisis de ensayos clínicos
Scientific rationality, causality and metaanalyses of clinical trials
Luz María De-Regil, PhD, SP; Esther Casanueva, Dra en Epidemiol
Instituto Nacional de Perinatología Isidro Espinosa de los Reyes. México, DF, México
RESUMEN
En el campo de la salud las revisiones sistemáticas y el metaanálisis (MA) han cobrado auge, ya que permiten congregar estudios de características similares y generar indicadores que describan el riesgo o el beneficio de intervenciones clínicas asociadas a la presencia de un problema de salud. Para interpretar el MA y darle su justa dimensión, es necesario tomar en cuenta la racionalidad del marco teórico que lo sustenta, sus criterios metodológicos y la posible relación causal entre exposición y evento, además del contextualizar la información. Actualmente, un gran reto constituye el análisis y la síntesis de la mayor cantidad de información para tomar decisiones de manera rápida y asertiva Este artículo hace un breve recorrido por la racionalidad científica y su aplicación en la teoría causal en el marco de la epidemiología, para sentar los cimientos que permitan evaluar la pertinencia y validez de las decisiones que se tomen con base en estos análisis.
Palabras clave: causalidad; metaanálisis.
ABSTRACT
Currently, the challenge is to analyze and synthesize as much information as possible in order to make quick, correct decisions. Systematic reviews and meta-analysis have quickly arisen in the health field because they allow researchers to congregate studies of similar characteristics to generate estimators that describe the risk or benefit of practices related to health problems. To understand and attach the appropriate importance to meta-analyses, it is necessary to consider the rationale of the theoretical framework, the methodological criteria, and the possible causal relationship between exposure and outcome, besides contextualizing the information. This paper briefly explores scientific rationality and its application in causal theory within an epidemiological framework, to set the basis that allows decision-makers and health professionals to evaluate the appropriateness and validity of conclusions derived from this type of analyses.
Keywords: causality; meta-analysis
Quien hoy pretenda combatir la mentira y la ignorancia
y escribir la verdad debe superar, cuando menos, cinco dificultades.
Debe tener el valor de escribir la verdad, aunque en todas partes la sofoquen;
la sagacidad de reconocerla, aunque en todas las partes la desfiguren;
el arte de hacerla manejable como arma; el juicio de escoger aquellos
en cuyas manos resultará más eficaz y la maña para propagarla entre éstos.
Bertolt Brecht
La racionalidad científica
La racionalidad, que se puede entender como la correcta actuación, ejercicio o realización de la razón para obtener conocimiento, es la principal herramienta de la ciencia. De acuerdo con Casanueva,1 la racionalidad científica está constituida por tres aspectos: el "episteme" (saber), la "phronesis" (sabiduría práctica), y la "techne" (técnica o saber hacer). El primero se refiere a los elementos conceptuales de la ciencia, a la inferencia de teorías elaboradas a partir de factores lógicos y/o empíricos sin que influyan otros elementos contextuales. En la episteme la inteligencia es el único instrumento para generar un marco conceptual que explique la naturaleza y permita derivar teorías que la expresen. En cambio, con la phronesis los factores contextuales cobran importancia; las teorías ya no son universales sino que están impregnadas de valores locales, históricos o emocionales. Aquí, la razón es necesaria pero no suficiente para entender la realidad. Por último, la techne se refiere a las habilidades prácticas que permiten modificar o manipular objetos o los conceptos relacionados con una teoría determinada.
Estos tres aspectos se complementan entre sí; las teorías y los elementos contextuales son necesarios para crear y entender las técnicas, mientras que las técnicas brindan nuevos elementos para la percepción y obtención de conocimiento.
El pensamiento causal en epidemiología
El desarrollo de la epidemiología se ha dado dentro de los cauces de la racionalidad. Desde sus inicios, la premisa subyacente en el trabajo epidemiológico es que la enfermedad no ocurre ni se distribuye al azar, por lo que es factible identificar sus causas para prevenir sus consecuencias.
Se podría decir que en el inicio la episteme era el componente racional dominante y que las causas de las enfermedades eran abordadas desde una perspectiva determinista. Durante el siglo XIX y principios del XX el origen de las enfermedades se atribuía a las emanaciones contaminadas del suelo, aire y agua -teoría del miasma-. Después, con la aparición de la teoría del germen, postulada por Henle y Koch, el agente infeccioso se convirtió en la única causa de la enfermedad. Cabe destacar que en esa época, si bien la identificación del agente causal ayudó al avance de algunas áreas de la ciencia, también limitó el desarrollo de otros espacios científicos, como el de la nutriología.
Sin embargo, al poco tiempo quedó claro que muy pocas veces causas únicas son seguidas por efectos únicos y la phronesis cobró importancia. Mill ya se anticipaba a este pensamiento cuando a finales del siglo XIX estableció que la causa es la suma total de las condiciones que, si se cumplen, determinan el acontecimiento denominado "efecto".2 Un ejemplo de ello son los trabajos de Cravioto, quien al analizar las causas de mortalidad en la desnutrición fue capaz de identificar causas agregadas, circunstanciales y universales, mismas que sirvieron como base para generar esquemas de manejo que redituaron en una drástica reducción de la mortalidad por desnutrición a mediados del siglo pasado.3
De este tipo de pensamiento se han derivado numerosas teorías de causalidad en la que un evento es la consecuencia de una variedad de causas que pueden encontrarse en uno o múltiples niveles. Así, aparecen teorías como la red de causalidad, la caja negra, las cajas chinas y, más recientemente, la eco-epidemiología4 (figura 1).
Las relaciones que se dan al interior de las teorías se representan por medio de modelos causales; los dos más usados son el de conjuntos causales suficientes (CCS)y el de causalidad probabilística (CP). El primero de ellos, desarrollado por Mckie y aplicado a la epidemiología por Rothman,5 está formado por varios elementos, ninguno de los cuales es suficiente para explicar la enfermedad por sí mismo, pero que en conjunto forman una causa necesaria. El segundo modelo, que defienden Parascandola y Weed,6 es un concepto estadístico en el que una causa incrementa la probabilidad de que ocurra el efecto; es decir, las causas pueden describirse en términos de probabilidad. En este modelo, la techne tiene un papel importante, ya que el avance tecnológico ha facilitado el desarrollo de nuevos modelos probabilísticos.
A estas formas de abordar la causalidad se une un tercer elemento: el razonamiento contrafactual. Éste es un pensamiento condicional en el que se contrasta entre la ocurrencia de la enfermedad dadas ciertas condiciones y la misma cuando dichas condiciones no están -llamado contrafactual- bajo el supuesto de que las demás variables que no están bajo estudio se mantienen constantes.7 El contrafactual no es inconsistente con los modelos de causa necesaria, con los conjuntos de causas suficientes o con la definición causal probabilística; de hecho potenciaría cualquier definición de causalidad al diferenciar entre causalidad y mera asociación. Así, el razonamiento contrafactual señala que la presencia o ausencia de un factor "hace la diferencia" (es decir, es la causa) mientras que el modelo de conjuntos suficientes y el probabilístico clarifican qué tipo de diferencia hace, ya sea cualitativa o cuantitativamente.6
Con base en lo anterior, es claro que el hecho de que dos fenómenos estén relacionados desde el punto de vista estadístico, no implica necesariamente que uno sea causa del otro; para ello se requiere analizar el tipo de asociaciones que se dan entre los distintos elementos. Una forma práctica que los epidemiólogos han encontrado para evaluar las relaciones causales es mediante el establecimiento de ciertos lineamientos o criterios. Los más usados en la actualidad son los formulados por Sir Austin Bradford Hill (cuadro I) en 1965 y que, como señala Höfler, llevan de manera implícita el razonamiento contrafactual.8
El metaanálisis como una herramienta para obtener conocimiento
El concepto de revisión en el ámbito científico se refiere al proceso de análisis y síntesis de la evidencia publicada sobre un tema específico; cuando ésta se hace con una metodología rigurosa se le agrega el adjetivo de sistemática. El número creciente de revisiones sistemáticas ha sido posible, en gran medida, gracias al avance de las herramientas informáticas para el registro y el análisis estadístico de datos. Se llama metaanálisis (MA) a aquella revisión sistemática donde los resultados de múltiples estudios se combinan a través de técnicas estadísticas para generar un estimador de la medida de efecto.9
Glass acuñó el término en 1976 para referirse a un análisis cuantitativo que permite evaluar sistemáticamente los resultados de investigaciones previas, a fin de llegar a conclusiones acerca del objeto de estudio.10 A pesar de su aparente novedad, la historia del MA se remonta a principios del siglo XX con Karl Pearson, quien probablemente fue el primer investigador médico en conjuntar los resultados de diferentes estudios que evaluaban el efecto preventivo de las inoculaciones en contra de la fiebre tifoidea, con el propósito de aumentar el tamaño muestral y entonces poder elaborar una conclusión al respecto.11 Posteriormente, otros investigadores como Tippett, Fisher y Cochrane también describieron técnicas estadísticas para combinar información. Es precisamente el grupo colaborador que porta el nombre Cochrane el que actualmente encabeza, por áreas de especialidades, las revisiones sistemáticas.
Las fases de una revisión sistemática que incluye un MA se han publicado en muchos lados y son muy similares a las de cualquier estudio de investigación en la cual se plantean a priori los objetivos, hipótesis, criterios de inclusión y exclusión, así como la metodología para la recolección y análisis de la información y, finalmente, la presentación de resultados (figura 2).9,12 La sistematización, de hecho, implica la elaboración y documentación ordenada y cuidadosa de cada etapa.
Marco teórico, formulación de objetivos y búsqueda de la información
Para plantear los objetivos y las hipótesis, es preciso que exista un marco teórico que justifique la revisión. Éste debe partir de una base racional en la que se considere la relevancia clínica y de salud pública del objeto de estudio, las distintas teorías acerca del proceso salud, enfermedad y los métodos de análisis, dejando de lado los juicios personales. Cuando esto no se tiene claro, el desarrollo, y por ende los resultados del metaanálisis, tendrán las mismas limitaciones.
En la búsqueda bibliográfica es necesario establecer los mecanismos para obtener la mayor cantidad de estudios, publicados, no publicados y los que están actualmente en desarrollo. Es importante señalar que en esta etapa los MA son especialmente proclives a dos tipos de sesgo de selección: el de búsqueda de la información y el de publicación.13,14 El primero se refiere a todos los factores que influyen al momento de localizar los estudios, como son el acceso a las bases de datos, las publicaciones múltiples de la misma información (artículos duplicados o autoplagio)15y el idioma, entre otros. En este tenor, se ha informado que la exclusión de estudios publicados en idiomas diferentes al inglés tiene poco efecto sobre el estimador de resumen.16 Sin embargo, esto pudiera ser el reflejo de un comportamiento cíclico en el que, en general, los estudios de mayor calidad se publican en inglés.
Por su parte, el sesgo publicación se refiere al hecho de que es más común que se envíen a publicación -y que salgan a la luz- estudios en los que se hayan encontrado asociaciones estadísticamente significativas que aquellos en los que no se observaron diferencias entre tratamientos. Si bien el sesgo de publicación es complicado de evaluar, se puede inspeccionar visualmente mediante el uso de gráficas de embudo que suponen que, debido al error aleatorio, los resultados de estudios más pequeños estarán más dispersos con respecto a la medida de resumen que los estudios más grandes. Si al momento de graficar los estimadores de los estudios contra el inverso de su error estándar o del tamaño muestral se observa una gráfica con una forma diferente a la de un embudo, entonces se puede sospechar la presencia de este sesgo o incluso de otro tipo.17
En 1997, Egger y colaboradores18 utilizaron este tipo de gráfico para comparar los resultados de ocho MA con los resultados de ensayos aleatorizados de gran tamaño. Estos autores encontraron que en la mitad de los casos los resultados del MA sobreestimaron el efecto de la intervención en comparación con los ensayos clínicos. Es muy probable que lo anterior se haya debido a la inclusión de estudios con alta significancia estadística, indicando así la presencia del sesgo de publicación. Este fenómeno se sigue observando a pesar de haberse publicado guías para el informe de ensayos clínicos19 y de la amplia difusión de la metodología para realizar revisiones sistemáticas.
No sólo es importante el número de ensayos que incluya el MA sino la evaluación sistemática de la calidad metodológica de cada estudio. Este es un concepto difícilmente cuantificable, pero si los estudios tienen errores de medición, sesgos o confusión, entonces el MA estará aquejado de los mismos problemas.20 Por ello, deben incluirse ensayos con una calidad metodológica que permita que los resultados en verdad se puedan atribuir a la intervención que se está investigando. Los factores que pueden afectar la validez de los ensayos van desde las características de los participantes de los estudios y la supervisión diferencial entre los que reciben el tratamiento y aquellos que no lo toman, hasta las causas que motivaron las pérdidas el seguimiento. En general, los estudios con mejor evaluación metodológica son los aleatorizados, con doble-cegamiento y con pocos abandonos o exclusiones durante la evaluación de la intervención, aunque en general no son muchos los trabajos que cumplen con estas características, en algunas ocasiones debido a cuestiones metodológicas y en otras por razones éticas.
Análisis de heterogeneidad
Durante el análisis estadístico del MA es importante valorar en qué medida los resultados que provienen de diferentes estudios pueden ser resumidos en una medida única y qué tanto la variabilidad entre éstos puede ser superior a la que puede esperarse por azar.9 Si los resultados entre ellos difieren ampliamente, entonces puede no ser apropiado combinarlos. La heterogeneidad entre estudios puede deberse a factores estadísticos, metodológicos o clínicos y puede analizarse tanto por métodos estadísticos como gráficos.
Los primeros tienen como hipótesis que la variabilidad entre los resultados es nula. Esto usualmente se evalúa mediante la prueba Q propuesta por Cochrane en 1954, que se basa en la X2. Esta prueba tiene una baja potencia para detectar la heterogeneidad entre pocos estudios o entre estudios con un tamaño muestral pequeño;10por ello, se ha propuesto una variación de la prueba Q, -la I2- que calcula el porcentaje de la variación de los estudios que es atribuible a la heterogeneidad, no sólo al azar.21 Además de los anteriores, también se puede examinar la heterogeneidad mediante distintos gráficos, entre los que destacan los de l'Abbé y Galbraith, que evalúan la dispersión de los datos.22
Discusión
El MA de ensayos clínicos se ha colocado, de manera reiterada, en la cúspide de la evidencia científica, por encima de ensayos aleatorizados de gran escala y de cualquier otro diseño epidemiológico, llámese cohorte o casos y controles.23 Ante ello, la pregunta que surge es ¿evidencia es sinónimo de causalidad?
La Real Academia Española de la Lengua señala que evidencia es una certeza clara y manifiesta de la que no se puede dudar.24 Sin embargo, como señala Bocourt,25 en inglés, de donde proviene la mayor parte de la terminología en epidemiología, "evidence" significa aquello que da indicios de algo; aquello que aporta pruebas de una verdad. Esta es una definición más laxa que le da credibilidad al MA, pero que le deja un margen de error.
Es indudable que los MA brindan información rápida, factible de actualizar y concisa que puede contribuir notablemente al avance de la ciencia y a la implementación de políticas públicas exitosas. Ejemplos de esto son los estudios en los que se demostró la utilidad del ácido fólico para prevenir los defectos del tubo neural al nacimiento -que después se tradujo en la recomendación mundial para uso de suplementos durante la edad reproductiva-26 o el papel de los asbestos en el desarrollo de cáncer de pulmón.27 A pesar de estos éxitos, no hay que olvidar que el MA es una herramienta que permite conjuntar los resultados de varios estudios para sacar mejores conclusiones del fenómeno a estudiar. Sin embargo, como todo proceso estadístico, está sujeto al juicio de quien lo hace y de quien lo interpreta. De ahí que distintos análisis sobre un mismo tema puedan dar resultados discrepantes e, incluso, contradictorios.
Para un análisis causal del MA es conveniente considerar los siguientes puntos:
- Presencia del contrafactual
- Criterios de causalidad
- Limitaciones del propio MA
- ¿A quién se pueden aplicar los resultados?
Los ensayos clínicos aleatorizados representan el mejor diseño para emular una situación contrafactual, ya que todos los sujetos con características similares tienen la misma posibilidad de recibir una intervención. Además, la probabilidad de que los confusores conocidos y no conocidos se distribuyan aleatoriamente entre los grupos a comparar es mayor. Así, un MA que incluya este tipo de diseño tiene mayor posibilidad de que el efecto de la intervención se deba al tratamiento y no a otras causas. Sin embargo, en revisiones donde se evalúan otro tipo de diseños esto pudiera no ser tan claro, por lo cual se requiere mayor cautela para interpretar los resultados.
Debido a la naturaleza de los MA de ensayos clínicos, algunos de los criterios señalados por Bradford-Hill se cumplen automáticamente, como el de la plausibilidad biológica, el de la evidencia experimental y el de la secuencia temporal. Además, como señala Weed,28 esta técnica brinda elementos para evaluar con mayor acertividad la consistencia y la fuerza de la asociación.
La consistencia se refiere al hecho de que una asociación se observe en diferentes circunstancias, por diferentes investigadores y en diferentes poblaciones. En el MA, este criterio se evalúa mediante las pruebas de heterogeneidad ya explicadas anteriormente; sin embargo, desde el punto de vista inferencial la heterogeneidad no necesariamente significa inconsistencia. Puede suceder, por un lado, que las pruebas de heterogeneidad no sean significativas aunque todos los resultados se orienten hacia la misma dirección pero con diferente magnitud; en este caso los resultados son consistentes pero heterogéneos. Por otro lado, también puede ocurrir que la prueba Q de Cochrane señale heterogeneidad como consecuencia de que se incluyeron muchos estudios en el MA (en este caso la prueba tiene alto poder) aunque la heterogeneidad no sea de importancia clínica. En ambos casos, así como cuando se observan estimadores contradictorios, la riqueza causal proviene de analizar las razones por las que los estudios discrepan. Esto, incluso, es aplicable cuando las pruebas estadísticas revelan que los estudios son comparables.
Por otra parte, el criterio causal tal vez más ponderado en el MA es el de la fuerza de la asociación. Cabe señalar que el MA per se no incrementará la fuerza de la asociación -entendida como magnitud- sino la precisión del estimador. En este caso, lo prudente es evaluar la significancia clínica o epidemiológica del estimador y qué tan sesgado está, ya sea por confusión o por sesgos de selección y/o información.
La inclusión de ensayos clínicos en un MA no es un proceso aleatorio -a pesar de que incluye estudios aleatorizados-. Por ello es conveniente revisar cómo los propios autores informan, manejan y discuten los sesgos de publicación y búsqueda. Los estudios excluidos pueden tener un efecto importante sobre las conclusiones del MA.
Si bien no es un aspecto crucial, conviene revisar si los autores de la revisión tienen publicaciones previas sobre el tema. Los resultados que un investigador ha obtenido pudieran sesgar -consciente o inconscientemente- las conclusiones de la revisión, en especial cuando las asociaciones son débiles, aunque esto queda explícitamente descrito en una sección de conflictos de interés en la mayoría de las revisiones sistemáticas. 29
En el estatus actual de la ciencia, donde la calidad metodológica de los estudios es muy variable, es claro que hay una relación inversa entre el aumento de los criterios de restricción y el número de trabajos que pueden incluirse en un MA. Ello pudiera comprometer la representatividad y, por ende, la posibilidad de generalizar las inferencias causales a partir de un MA, en especial cuando los factores estudiados no son estrictamente de naturaleza biológica. Un ejemplo es un MA publicado recientemente en el que se evalúa el efecto de la suplementación con vitaminas C y E durante el embarazo para prevenir la preclampsia.30 Los autores señalan que de 1 851 artículos que potencialmente se pudieron haber incluido después de la búsqueda inicial, sólo once se tomaron en cuenta con base en el título y en el resumen. Después se excluyeron siete artículos por distintas razones de tal manera que el MA final incluyó sólo cuatro estudios. En estos casos más que basar las acciones sobre un MA, vale la pena hacer una evaluación de todos los aspectos contextuales y biológicos que pueden intervenir en el proceso causal, y por lo tanto, en la respuesta de un individuo o una población a una intervención.
Conclusiones
En el proceso de elaboración de un MA hay una gran variedad de factores que pueden influir en sus resultados. Más allá del estadístico de resumen que se obtenga, queda al juicio de quien lo evalúa decidir a quién o quiénes son extrapolables los resultados. Además de considerar si es suficiente la plausibilidad biológica, la consistencia y la fuerza de la asociación para aplicarlos a un paciente o a una población que, probablemente, tiene características disímiles con respecto a quienes se incluyeron en el MA. Para ello, es necesario que exista un proceso racional en el que la techne se complemente y retroalimente con la episteme y la phronesis.
Referencias
1. Casanueva M. Tres aspectos de la racionalidad científica. En: Racionalidad. Velasco A, Pérez-Ranzanz AR, eds. México, DF: Facultad de Filosofía. Universidad Nacional Autónoma de México, 2006. [ Links ]
2. MacMahon B, Pugh TF. Causes and entities of disease. En: Preventive Medicine. Duncan WC, MacMahon B, eds. Boston: Little Brown, 1967:11-18. [ Links ]
3. Gómez F, Ramos R, Frenk S, Cravioto J, Chávez R. Estudios sobre el niño desnutrido. XIV Mortalidad en la desnutrición de tercer grado. Gac Med Mex 1957;87(2):81-90. [ Links ]
4. Schwarts E, Susser E, Susser M. A future for epidemiology? Annu Rev Pub Health 1999;20:15-33. [ Links ]
5. Rothman K, Greenland S. Modern epidemiology. 2a ed. Philadelphia: Lippincott Williams and Wilkins, 1998. [ Links ]
6. Parascandola M, Weed DL. Causation in epidemiology. J Epidemiol. Community Health 2001;55;905-912. [ Links ]
7. Susser M. Glossary: causality in public health science. J Epidemiol Community Health 2001;55:376-378. [ Links ]
8. Höfler M. The Bradford Hill considerations on causality: a counterfactual perspective. Emerg Themes Epidemiol 2005; 2:11. [ Links ]
9. Barker FG, Carter BS. Synthesizing medical evidence: systematic reviews and metaanalyses. Neurosurg Focus 2005;19(4):1:21. [ Links ]
10. Petiti D. Meta-analysis, decision analysis and cost-effectviness analysis: Methods for quantitative synthesis in medicine. 2nd. ed. Nueva York: Oxford University Press, 2000. [ Links ]
11. Egger M, Smith DG, Sterne JAC. Uses and abuses of meta-analysis. Clin Med 2001;1(5):478 [ Links ]
12. Higgins UPT, Green S (editors). Cochrane Handbook for systematic reviews of intervention. The Cochrane Collaboration. [Consultado Febrero 2008]. Disponible en: www.Cochrane-handbook.org. [ Links ]
13. Sterne JA, Egger M, Smith GD. Systematic reviews in health care: Investigating and dealing with publication and other biases in meta-analysis. BMJ 2001;323(7304):101-105. [ Links ]
14. Egger M, Schneider M, Smith G. Bas in location and selection of studies. BMJ 1998;316:61-66. [ Links ]
15. Committee on Publication Ethics. Guidelines on good publication practice. Fam Pract 2000; 17: 218-221. [ Links ]
16. Juni P, Holenstein F, Sterne J, Bartlett C, Egger M. Direction and impact of language bias in meta-analyses of controlled trials: empirical study. Int J Epidemiol 2002;31(1):115-123. [ Links ]
17. Sutton AJ. Modelling publication bias in meta-analysis: a review. Stat Methods Med Res 2000; 9: 421-445. [ Links ]
18. Egger M, Davey-Smith G, Schneider M, Minder C. Bias in meta-analysis detected by a simple, graphical test. BMJ 1997; 13;315:629-634. [ Links ]
19. Moher D, Schulz KF, Altman DG, CONSORT Group. The CONSORT statement: revised recommendations for improving the quality of reports of parallel-group randomised trials. Lancet 2001;357:1191-1194. [ Links ]
20. Egger M, Schneider M, Smith G. Meta-analysis Spurious precision? Meta-analysis of observational studies. BMJ 1998; 7125(316 ): [ Links ]
21. Higgins JPT, Thompson SG, Deeks JJ, Altman DG. Measuring inconsistency in meta-analyses. BMJ 2003;327;557-560. [ Links ]
22. Pértega-Díaz S, Pita-Fernández S. Revisiones sistemáticas y metaanálisis (II). CAD ATEN PRIMARIA 2005; 12(3): 166-171 [Consultado el 18 de junio de 2007]. Disponible en: http://www.fisterra.com/mbe/investiga/metaanalisis/RSyMetaanalisis2.asp [ Links ]
23. Hierarchy of evidence and grading of recommendations. Thorax 2004;59;13-14. [Consultado el 20 de septiembre de 2008]. Disponible en: http://thorax.bmx.com/cgi/reprint/59/suppl 1/i/3. [ Links ]
24. Real Academia de la Lengua Española. [sitio de internet] [Consultado el 5 septiembre de 2007] Disponible en: www.rae.es [ Links ]
25. Boucourt-Rivera L. Su excelencia: la medicina basada en evidencias. ACIMED 2003; 11(3): 3, 4. [ Links ]
26. Recommendations for the use of folic acid to reduce the number of cases of spina bifida and other neural tube defects. MMWR Recomm Rep. 1992 Sep 11;41(RR-14):1-7. [Consultado el 5 de septiembre de 2007] Disponible en: http://www.cdc.gov/mmwr/preview/mmwrhtml/00019479.htm [ Links ]
27. Chovil AC.Occupational lung cancer and smoking: a review in the light of current theories of carcinogenesis. Can Med Assoc J 1979;121(5):548-550, 553-555. [ Links ]
28. Weed DL. Interpreting epidemiological evidence: how meta-analysis and causal inference methods are related. Int J Epid 2000;29:387-390. [ Links ]
29. Davey-Smith G, Egger M. Meta-analysis. Unresolved issues and future developments. BMJ 1998;316(7126):221-225. [ Links ]
30. Polyzos NP, Mauri D, Tsappi M, Tzioras S, Kamposioras K, Cortinovis I, et al. Combined vitamin C and E supplementation during pregnancy for preeclampsia prevention: a systematic review. Obstet Gynecol Surv 2007;62(3):202-206. [ Links ]
Fecha de recibido: 23 de octubre de 2007
Fecha de aceptado: 5 de junio de 2008
Solicitud de sobretiros: Dra. Luz María De Regil. Departamento de Investigación en Nutrición, Instituto Nacional de Perinatología Isidro Espinosa de los Reyes. Montes Urales No. 800, Torre de investigación 2o. Piso, col. Lomas Virreyes. 11000 México, DF.
Correo electrónico: lmregil@salud.gob.mx, lmregil@hotmail.com