Introducción
Breves antecedentes históricos
La ciencia no surgió de la academia, sin embargo, esta última ha aportado perspectivas nuevas e interesantes para la comprensión y explicación de la realidad.
Hace miles de años dichas explicaciones se buscaron en la religión, dando origen a la filosofía y posteriormente a las diversas ciencias: química, física, astronomía, arquitectura, agronomía, biología, etcétera, que después se subdividieron en ciencias naturales y ciencias sociales.
Durante la segunda mitad del siglo XX comenzaron a acercarse las ciencias entre sí con respecto a sus procedimientos, métodos y técnicas. De esa manera surgieron otras ramas de la ciencia, por ejemplo, biomedicina, biofísica, bioquímica, entre otras, que recibieron una gran influencia estadístico-matemática (Martínez, 2001 y Méndez, 1987).
En dicho acercamiento, la estadística-matemática jugó un papel importante. Algunas ciencias optaron por usarla, identificándola como una tendencia positivista. Pero con el transcurso del tiempo se dio entrada a corrientes de tipo hermenéutico, lo cual condujo a que la estadística comenzara a utilizarse solo en ciencias como economía, biología, psicología, sociología, entre otras. Incluso no pocos estudiantes optaron por estas carreras para evadir la estadística-matemática.
Es común que en su mayoría las investigaciones de jóvenes estudiantes universitarios en el área de las ciencias sociales y humanidades tiendan a ser cualitativas, posiblemente porque no poseen los conocimientos sobre el buen uso y la aplicación de la estadística, lo cual representa un mayor reto pedagógico en la dualidad metodología-estadística.
Además, se deben revisar y analizar los comportamientos actuales de las técnicas cualitativas y cuantitativas con uso de estadística, sobre todo en los procesos escolarizados de formación en una profesión.
Comportamiento actual de las técnicas cuantitativas y cualitativas
Desde finales del siglo XX, los científicos de la conducta se han interesado por utilizar el método cualitativo en su área de investigación, dejando de lado el cuantitativo, propiciando así pugnas y contradicciones. Cada término significa algo distinto y, por lo tanto, representa un enfoque teórico, epistemológico y metodológico diferente. El presente trabajo apuesta por la combinación de ambos.
Un reducido grupo de estudiosos trabajamos con los dos métodos: estadística y metodología. El propósito es utilizar ambas y difundir esta nueva forma de trabajo.
Para abordar un tema de primordial importancia relacionado estrechamente con lo cualitativo y lo cuantitativo es necesario hablar de tipos de variables y escalas de medición.
Tipos de variables y escalas de medición
En todo proyecto de investigación, los tipos de variables, escalas, análisis estadístico y pruebas estadísticas, son de primordial importancia (cuadro 1). La estadística NO paramétrica es la técnica más apropiada para escalas de baja categoría (nominales y ordinales) y cuando los supuestos del modelo son débiles o no se cumplen: normalidad, homogeneidad de varianzas, independencia de los errores.
La independencia de los errores se presenta cuando los datos son aleatorizados, una condición entre otras que hace que el experimento sea fiable. La estadística paramétrica es la más apropiada para escalas de alta categoría (intervalo y razón).
Por lo tanto, existe estrecha relación entre las escalas de medición, las técnicas estadísticas paramétricas y NO paramétricas y los cuatro criterios dicotómicos de investigación, con los diez proyectos de investigación científica.
Con la paramétrica se hacen inferencias: estimación y prueba de hipótesis sobre los parámetros poblacionales (la media y desviación estándar). La estadística paramétrica es la tradicional, la que se enseña en el nivel superior y en el nivel de posgrado. Está bien que se enseñe, pero ¿por qué no se enseña la estadística NO paramétrica, sobre todo en ciencias sociales?
La estadística NO paramétrica como su nombre indica no hace referencia a parámetros tales como la media, desviación estándar y otros. Tampoco es posible efectuar operaciones aritméticas. Para una mejor comprensión de este punto, se recomienda consultar el significado de: medir, medida, medición, dimensión, número, cantidad, número cardinal.
Las escalas de medición comprenden todos los tipos de escala: nominales, ordinales, de intervalo y de razón, es decir, comprenden cantidades y números.
La escala nominal responde al tipo de datos clasificados en categorías o clases. Por ejemplo, en la variable sexo (masculino y femenino), cada uno de ellos es una categoría o clase. No se pueden efectuar operaciones aritméticas, ni establecer relación de orden; pero sí pueden obtenerse frecuencias, porcentajes y conteos en tablas de contingencia.
La prueba estadística apropiada para probar hipótesis es la ji-cuadrada y binomial, que muestra la frecuencia de cada categoría. La medida de asociación más común para datos nominales es el coeficiente de contingencia. La propiedad importante de la escala nominal es la igualdad o equivalencia.
Todos los elementos que forman parte de una categoría de acuerdo a su naturaleza son iguales o equivalentes. Las propiedades de la igualdad son las siguientes:
Reflexiva: x = x, para cualquier valor de x.
Simétrica: x = y ( y = x
Transitiva: Sí, x=y y = z ( x = z, equivalente al silogismo, para definir hipótesis.
Los elementos de la categoría masculino (individuos, objetos o cosas), excluyen a los elementos de la categoría femenino, es decir, son mutuamente excluyentes: si una ocurre, la otra no puede ocurrir. No hay relación de orden entre sí: masculino no es más fuerte o inteligente que femenino. Tampoco hay términos medios: o se es masculino o se es femenino, y así con todas las variables nominales.
En relación a la escala ordinal: la variable ordinal da mejor información que la nominal. Las pruebas y técnicas estadísticas no paramétricas para variables nominales, son también válidas para las ordinales. En esta escala, los elementos de una categoría se relacionan entre sí por el concepto de orden, con los signos mayor que (>) y menor que (<). Ejemplos: intensidad de un dolor (fuerte, regular, bajo); ingresos (altos, medianos, bajos); evidentemente: fuerte > regular > bajo y altos > medianos > bajos.
Sí con datos ordinales se usaran técnicas paramétricas calculando medias y desviaciones estándar se cometería un error, siendo las conclusiones dudosas y poco o nada confiables. En ciencias sociales, la mayoría de las pruebas son NO paramétricas, aunque también se usan las paramétricas. Sus propiedades son:
Desigualdad: A > b y a < b; b > c y b < c..., propiedad que es,
Irreflexiva: No es verdad para ninguna x, que x>x
Asimétrica: x > y, luego, “y” no es mayor que “x”.
Transitiva: X > y y y > z ( x > z
En escalas ordinales la prueba apropiada es la mediana (con datos arriba y abajo de ella). También se aplican coeficientes de contingencia y estadísticas de rango. El único supuesto para algunas pruebas de rango, es que los datos tienen distribución continua, es decir, que pueden tomar cualquier valor en cierto intervalo.
El nivel máximo de medición que se alcanza es con la escala de intervalo y con la escala de razón. La escala de intervalo hace uso en la recta de los números reales.
La escala ordinal tiene las propiedades y característica de la nominal. La escala de intervalo tiene las propiedades de la nominal y ordinal y otras como proporciones entre dos intervalos contiguos.
En escala de intervalo el cero es arbitrario. Para medir temperatura las escalas más usadas son: grados centígrados (0C) y grados Fahrenheit (0F). En ambas escalas, el punto de congelamiento y punto de ebullición son diferentes: de 0 y 100 en 0C y de 32 y 212 en 0F. El 0 0C es equivalente a 32 0F y 100 0C es equivalente a 212 0F. Sin embargo, proporcionan la misma información, como lo demuestra el siguiente ejemplo (Haber/runyon, 1973, p.16).
Tiene razón de ser (en ciencias sociales), la excesiva preocupación en trabajar con escalas de intervalo. Si no se puede, ni modo; se tendrán que aprovechar las bondades y ventajas que ofrece la estadística NO paramétrica y las técnicas cualitativas, entre otras herramientas.
Desde hace muchos años se ha venido aplicando casi exclusivamente la estadística tradicional, que nos permite obtener: medias, desviaciones estándar, pruebas de t, de F, así como análisis de varianza, análisis de varianza de la regresión y de correlación apoyados fuertemente en los supuestos del modelo cuando a entera satisfacción estos se cumplen.
En estas circunstancias debe quedar claro que la estadística NO paramétrica no debe usarse (se puede, pero no se obtendrían resultados satisfactorios) Entonces, si la estadística NO paramétrica no debe usarse, ello no quiere decir que no se puedan inyectar al modelo paramétrico, variables cualitativas (independientes) conjuntamente con las variables cuantitativas en el mismo modelo.
La escala de razón o de proporción tiene todas las características y propiedades de la escala de intervalo, además de que el cero es real, aunque ya vimos que en la práctica el tener un cero arbitrario no es tan determinante.
En escalas de razón, las unidades de medida tienen un cero real: peso en toneladas, kilos y gramos, de tal modo que la proporción entre dos unidades de peso cualesquiera, es independiente de la unidad de medida. Las operaciones aritméticas pueden hacerse con mayor plenitud, así como las pruebas estadísticas, incluyendo la media geométrica y el coeficiente de variación.
Para la nominal:
Reflexiva: Para cualquier valor de “x”, x = x.
Simétrica: x = y, luego entonces y = x
Transitiva: Sí x = y y y = z, luego entonces: x = z
Para la ordinal:
Irreflexiva: No es verdad para ninguna x, que x>x.
Asimétrica: x>y, entonces “y” no es mayor que “x”.
Transitiva: Si x > y y y>z, entonces, x>z (silogismo)
En sus proyectos de investigación, ¿se le presentan variables y escalas que no se puedan adaptar a este esquema? Mencione casos a los que se haya enfrentado.
En general, libros de texto clasifican a las variables no en forma tan completa como se presentan en el cuadro 1, susceptible de ser mejorado. Se aceptan y agradecen sugerencias del lector e incluso modificaciones y ampliaciones.
A las variables cuantitativas y cualitativas no pocos autores les llaman espectacularmente “paradigmas cuantitativos y paradigmas cualitativos”. Si lo cuantitativo es numérico y lo cualitativo es categórico, podemos llamarles ¿paradigmas numéricos y paradigmas categóricos? Al parecer no, pero sí podemos llamarles variables cuantitativas o numéricas y variables cualitativas o categóricas, o bien técnicas cuantitativas o numéricas y técnicas cualitativas o categóricas. En general: investigación cuantitativa e investigación cualitativa.
No pocos profesores e investigadores afirman que se deben tener claras las ventajas de cada uno de los “paradigmas” cualitativos y cuantitativos (Giraldi, 1998). Pero desde nuestro punto de vista lo que se debe tener claro son las características y la forma como se usan, sus puntos complementarios y su liga con la estadística y la metodología de la investigación científica.
Al respecto se presentan dos cuadros estrechamente relacionados:
Las variables indicadas (cuantitativas y cualitativas)
Las escalas de medición (nominales, ordinales, de intervalo y de razón)
Las técnicas estadísticas (paramétricas y no paramétricas)
Las pruebas estadísticas, desde la binomial hasta la t y la F.
Los cuatro criterios dicotómicos de la investigación científica
Los diez tipos de proyectos de investigación
Por ejemplo, en el criterio observacional en los proyectos encuesta (1, 2, 3, 4), se aplica tanto lo cualitativo como lo cuantitativo; en lo cualitativo, porcentajes y conteos y así en el resto de los proyectos.
En el criterio experimental predomina lo cuantitativo aunque también está presente lo cualitativo. En este último caso es posible aplicar variables cualitativas generalmente como independientes, pero también como dependientes; los canadienses las han estado aplicando (Méndez R. I., 1984).
A continuación se describe la matriz de investigación científica, cuyo contenido metodológico y estadístico no se enseña en las escuelas superiores y de posgrado de todas las disciplinas científicas, por lo que es importante reconsiderar su importancia.
Matriz de investigación científica y sus proyectos
Aunque no es el propósito explicar en este apartado el funcionamiento de la Matriz de Investigación Científica, se presentan los proyectos que contiene dicha matriz para entender lo que sigue. Se conserva el número correspondiente al proyecto, de acuerdo al cuadro 2.
Contiene pseudo experimentos, con los tres siguientes estudios o proyectos de investigación, necesariamente comparativos, además de las encuestas 3 y 4, comparativas, que también son pseudo experimentos.
Contiene proyectos que no son experimentos ni pseudo experimentos, como los siguientes que son monogrupales, además de las encuestas 1 y 2, también monogrupales, que tampoco son experimentos ni pseudo experimentos.
Contiene proyectos vía encuesta por muestreo. Son los cuatro siguientes:
Contiene el experimento (el diseño10) de criterio experimental, el que se enseña tradicionalmente en el nivel profesional y en el nivel de posgrado, el que ocupan la mayor atención de docentes e investigadores en la ejecución de proyectos de investigación y tesis académicas (no siempre acertadamente), sobre todo en ciencias matemáticas y naturales.
De los diez proyectos de investigación, los nueve primeros aún no aparecen en programas de estudio del currículo de instituciones de educación superior, si acaso las encuestas por muestreo 1 y 3, comparativas y prospectivas (muestreo estadístico o introducción al muestreo), mal llamado en ingeniería agrícola (FESC-UNAM) inferencia estadística, porque la inferencia no es exclusiva del muestreo ya que los diseños experimentales también son inferenciales.
En la última hilera en tono gris con letra cursiva están las características del proyecto experimento. Las dicotomías más importantes son: 1 y 4. Las encuestas con base en cuestionarios es una forma de hacer investigación.
Desde esta visión, las preguntas abiertas hay que evitarlas: las respuestas son largas, complicadas y no funcionales. De hacerlas, tendrá que estar bien justificado su uso; posiblemente se responda a investigaciones tipo hermenéutico donde se otorga valor a las creencias y opiniones con mayor profundidad, cuyo significado cobra importancia.
Por tanto, en esta perspectiva estadística las preguntas cerradas es lo ideal: las respuestas son aquí, concretas, precisas, funcionales y perfectamente codificables para su análisis estadístico.
No es lo mismo definir objetivos cualitativos sociales, políticos, religiosos, que objetivos cuantitativos como altura, longitud o peso. A un político le interesan totales, promedios, porcentajes. El investigador busca además de lo anterior definir diagnósticos y conclusiones mediante la comparación de resultados y asociación entre variables.
La experimentación moderna (vía experimento) es lo tradicional. Y es moderna porque se consolidó en la década de los treinta del siglo pasado con Ronald Fisher (1890-1967), creador de los conceptos bloque y aleatorización, indebidamente aún vigentes (tal como los concibió Fisher).
Sin embargo, Galileo se fijó mentalmente problemas y seguramente hipótesis que probó mediante experimentos, creando leyes y teorías de trascendencia científica. Una proeza.
Fisher afinó y ajustó la metodología galileana, mejorando las técnicas de investigación, un eslabón más a la cadena científica que ha permitido aplicar la estadística con mayor eficiencia. La investigación (científica) se encuentra presente en los diez proyectos del cuadro 2, con el experimento solo en la décima parte del cuadro. El pseudo experimento carece de algunas propiedades y características importantes del experimento. ¿Cuáles? Principalmente la aleatorización, pero también el hecho de que el material de investigación no es manipulado ni transformado por el investigador.
El profesor y el investigador suelen confundir pseudo-experimentos con experimentos. No pocas veces están tratando con experimentos sin que lo sean y no se percatan de ello. Obviamente, los resultados no son confiables y nadie se da cuenta.
También es importante diferenciar entre los conceptos investigación y experimentación: cuando se ejecutan experimentos se hace investigación, pero cuando se hace investigación no necesariamente se hace con experimentos.
En general, el concepto experimento y lo cuantitativo está demasiado arraigado en la comunidad científica. Lo correcto para experimentos es: investigación vía experimento. Sin embargo, ¿la costumbre se convierte en ley?
Sugerencia especial para estudiantes, docentes, asesores e investigadores: usar preferentemente el concepto investigación y no el concepto experimentación, y solo aplicar este último en casos donde el proyecto de investigación sea realmente una investigación vía experimento.
Paradigma
Es un término filosófico que se ha vuelto popular en el ámbito científico. En general, investigadores, docentes y metodólogos lo han adoptado y le han dado carta de naturalización científica. Se ha abusado en su uso para inyectar a los escritos cierta elegancia, así como para satisfacer algo de la vanidad que todos llevamos dentro.
El término resulta complicado, pues no es fácil de entender por las diferentes interpretaciones que le dan los filósofos, pocas de ellas no contradictorias (actualmente todo mundo lo usa y muy a la ligera).
Thomas Kuhn en 1962 fue quien introdujo el término. Psicólogos, sociólogos, políticos y en todos los campos de las ciencias naturales se utiliza prácticamente para todo: ¿es un paradigma familiar, algebraico, del amor, del arte, deportivo? Thomas Kuhn afirma: “el paradigma es algo sutil e inconsistente (con falta de solidez o estabilidad)”.
De modo que paradigma es un conjunto de principios cognoscibles (conocidos), unas presunciones que definen (en primer lugar) el tipo de datos que somos capaces de observar. Ken Wilber (1989 y 1991) hizo además una larga exposición sobre cinco diferentes niveles y subniveles de paradigmas que los explican filosóficamente.
Muy interesante y entretenida la narración de Wilber, quien visualiza al paradigma como absolutamente filosófico (no científico), cada nivel con una perspectiva diferente de la realidad, como los peldaños de una escalera filosófica de infinita extensión. Cada peldaño corresponde a cada uno de los niveles y subniveles: el primero al de la materia, el último al del espíritu.
La filosofía de Wilber tiene relación con el “paradigma” cuantitativo y cualitativo. El actual conflicto en la investigación educativa no es un conflicto de paradigmas que compitan entre sí, porque los puntos de vista supuestamente en competencia no difieren; simplemente no existe la competencia entre paradigmas en el discurso científico, tanto en ciencias sociales como en ciencias naturales (Lakatos, 1978).
¿Lo cuantitativo contra lo cualitativo?
Acerca de la distinción entre ciencias naturales y ciencias sociales, Marlin C. Wittrock (1989) señala que dicha noción primero fue propuesta por el historiador y filósofo social alemán Whilhem Dilthey (1914-1976), con base en los trabajos de su contemporáneo, el polaco Malinowski (1922-1966). Dicha distinción o diferenciación se acrecentó con los trabajos de Winch (1958), Berger y Luckmann (1967), Giddens (1976), entre muchos otros.
A mediados del siglo XIX (1850), lo que hoy conocemos como ciencias sociales y ciencias de la conducta comenzaron a ser delimitadas como áreas. Más tarde, A. Comte creó y acuñó en 1920 el término sociología, fecha en la que empezó a estudiarse como ciencia. Sin embargo, fue la psicología antes que la sociología la disciplina que se acogió al modelo positivista de las ciencias naturales, la experimental.
Campbel y Stanley (1966) dieron a conocer a la comunidad científica el pseudo experimento, que abrió la puerta hacia la investigación cualitativa como herramienta de investigación. El mismo Campbel en 1978 propuso como proyecto de investigación el estudio de casos, al que llamó método de investigación. De ahí en adelante lo cualitativo comenzó a prevalecer.
Desde hace 20 años ha crecido el afán de investigadores sociales por investigar solo en forma cualitativa, confiando haber encontrado la “alternativa” de lo cuantitativo. Así, Carmen Merino (1995), investigadora de la conducta, afirma que lo cualitativo no comulga con las ciencias naturales, con lo experimental. Se niega pues la posibilidad de que ambas técnicas puedan ser complementarias y se niega, además, la presencia de variables cualitativas en los fenómenos propios del criterio experimental, particularmente el experimento.
En efecto, instituciones educativas de educación media superior y superior se expresan al respecto pero sin profundizar en el problema, es decir, sin una justificación plena, estadística y metodológica.
Conclusión
El conocimiento de la estadística paramétrica, NO paramétrica, metodología, escalas, tipo de variables, criterios dicotómicos y tipo de proyectos, proporciona una amplia gama de posibilidades para manejar en forma conjunta lo cuantitativo y lo cualitativo estadísticamente.
Los científicos de las ciencias sociales han creado sus propias leyes y teorías, logrando avances también significativos. Pero la apuesta desde esta visión es asumir la capacidad de trabajarlas no solo en forma individual sino también conjunta y con fundamento estadístico.
En el positivismo lógico, la manera de investigar ha sido hasta ahora el experimento (criterio experimental). Actualmente hay que considerar no solo a la dicotomía observacional-experimental sino también al resto de las dicotomías (cuatro), cuya combinación conforma los diez tipos de proyectos de investigación, nueve de los cuales en general todavía no son contemplados para realizar investigación científica y tesis académicas.
De acuerdo con Carmen Merino, el “paradigma” cuantitativo se basa en la lógica deductiva (de lo general a lo particular) y el “paradigma” cualitativo (técnica cualitativa) en la lógica inductiva (de lo particular a lo general). Esto es falso: ambos paradigmas se complementan. Por otra parte, afirmar que lo deductivo va de lo general a lo particular y lo inductivo de lo particular a lo general, no es del todo aceptable porque lo correcto es la tendencia es acercarse (probabilísticamente) a la verdad. ¿Qué tanto? Tanto como la magnitud del nivel seleccionado de significancia alfa (() lo permita.