Servicios Personalizados
Revista
Articulo
Indicadores
Links relacionados
- Similares en SciELO
Compartir
Revista mexicana de investigación educativa
versión impresa ISSN 1405-6666
RMIE vol.15 no.45 Ciudad de México abr./jun. 2010
Investigación
Entornos virtuales de aprendizaje: un enfoque alternativo para la enseñanza y aprendizaje de la inferencia estadística
Santiago Inzunsa Cazares
Profesor e investigador en la Facultad de Informática de la Universidad Autónoma de Sinaloa. Josefa Ortiz de Domínguez s/n, Ciudad Universitaria, colonia La Lima, 80040, Culiacán, Sinaloa México. CE: sinzunza@uas.uasnet.mx
Artículo recibido: 7 de agosto de 2009
Dictaminado: 6 de octubre de 2009
Segunda versión: 19 de octubre de 2009
Aceptado: 4 de noviembre de 2009
Resumen
En este artículo se presenta una propuesta alternativa de ambiente de aprendizaje basado en el uso de dos herramientas de software (Fathom y Excel) para la enseñanza y aprendizaje de la estimación de parámetros por intervalos de confianza, un tema ineludible en la mayoría de los cursos de estadística a nivel universitario. La propuesta se puso a prueba con un grupo de 17 estudiantes universitarios del área de estudios internacionales. Los resultados muestran que un elevado porcentaje de alumnos lograron desarrollar un razonamiento adecuado sobre el tema, de acuerdo con un cuestionario administrado al final de las actividades y con las entrevistas realizadas a dos estudiantes.
Palabras clave: educación virtual, software educativo, estudiantes, aprendizaje significativo, educación superior, México.
Abstract
This article presents an alternate learning setting based on the use of two computer programs (Fathom and Excel) for teaching and learning the estimation of parameters by confidence level, an unavoidable topic in most university statistics courses. The proposal was tested with a group of seventeen university students in the area of international studies. The results show that a high percentage of students was able to develop adequate reasoning on the topic, according to a questionnaire at the end of the course, and interviews with two students.
Keywords: virtual education, educational software, students, meaningful learning, higher education, Mexico.
Introducción
Conforme la sociedad se ha ido desarrollando, las metas educativas han evolucionado y se han vuelto cada vez más ambiciosas. Actual mente, además de que los estudiantes posean conocimientos de una cierta disciplina, es importante que comprendan lo que conocen, que desarrollen procesos de razonamiento, que analicen, interpreten y comuniquen resultados y que liguen sus conocimientos al análisis y resolución de situaciones de la vida real.
Particularmente en el caso de las matemáticas, actualmente se pretende que los estudiantes desarrollen competencias matemáticas que van mucho más allá en cuanto a exigencias cognitivas que a la memorización y dominio de algoritmos, fórmulas y procedimientos procesos que ocuparon un lugar muy importante hasta hace algunos años en el aprendizaje de esta disciplina. Como ejemplos de algunas competencias se encuentra el plantear y resolver problemas, saber analizar e interpretar datos provenientes de muestras, poblaciones o experimentos y realizar inferencias partir de ellos.
Ante tales desafíos educativos se ha vuelto necesario por parte de los educadores diseñar ambientes de aprendizaje más efectivos, donde los estudiantes puedan desarrollar procesos de aprendizaje acordes con las exigencias actuales. Por el potencial cognitivo que ofrecen las herramientas computacionales las que se han perfeccionado cada vez más en los últimos años debido a los avances de la ingeniería de software y al vertiginoso desarrollo de las telecomunicaciones, constituyen sin duda un elemento que es importante considerar en el diseño de dichos ambientes de aprendizaje.
Sin embargo, es importante señalar que el potencial de la tecnología para mejorar el aprovechamiento de los estudiantes se materializa sólo si se usa apropiadamente bajo un modelo pedagógico. En este sentido, lo que se conoce ahora sobre la psicología del aprendizaje proporciona orientaciones importantes para los usos de la tecnología, de tal forma que pueda ayudar a los estudiantes y a los profesores a desarrollar las competencias requeridas (Bransford et al., 1999). De acuerdo con lo anterior, un modelo pedagógico fundamentado en una visión constructivista del aprendizaje y tomar en cuenta las particularidades de la disciplina que se desea enseñar, son factores importantes que deben ser considerados en el diseño de ambientes de aprendizaje basados en el uso de la computadora.
En específico, en el caso de la probabilidad y estadística área a la que corresponde la temática de la presente investigación, la tecnología computacional ha mostrado un enorme potencial para ayudar a los estudiantes a comprender conceptos difíciles (NCTM, 2000; BenZvi, 2000; Mills, 2002; Chance y Rossman 2006). En el caso de la probabilidad, uno de los aspectos más relevantes en los que la computadora puede ser de gran utilidad como herramienta pedagógica es la simulación de fenómenos aleatorios. A través de la simulación el estudiante puede explorar y comprender conceptos y principios (por ejemplo las distribuciones de probabilidad, muestreo aleatorio y distribuciones de estadísticos) que de otro modo serían mucho más abstractos, contribuyendo con ello a mejorar la experiencia estocástica y la intuición probabilística. Por su parte, en estadística, la computadora puede ser de gran ayuda en la automatización de cálculos laboriosos (como el de medidas descriptivas como la desviación estándar y el coeficiente de correlación), en la exploración de datos y en la construcción de gráficas.
El Consejo Nacional de Profesores de Matemáticas de Estados Unidos (NCTM, por sus siglas en inglés) en su documento titulado Principios y estándares para la educación matemática del año 2000, recomienda que los problemas de probabilidad puedan ser investigados primeramente por medio de simulaciones para obtener una respuesta aproximada y después usar un modelo teórico para encontrar la solución exacta. Por su parte, Biehler (1991) señala que la computadora proporciona, mediante la simulación, una estrategia alternativa para la resolución de problemas y nos permite investigar situaciones más realistas que antes no eran posibles. Señala a su vez, los siguientes aspectos ventajosos del enfoque computacional:
1) El número de repeticiones es fácilmente incrementado, haciendo que la incertidumbre y la variabilidad de los resultados se reduzcan; nuevas clases de patrones pueden ser detectados.
2) Es posible una exploración extensiva cambiando los supuestos del modelo, haciendo experimentos adicionales, cambiando la forma de generar los datos, etcétera.
3) Representaciones nuevas y más flexibles están disponibles para expresar modelos y procesos estocásticos y despliegue de datos con facilidades gráficas.
Mientras tanto, Chance et al., (2007) identifican diversas formas en las que la tecnología computacional puede apoyar el aprendizaje de la estadística y probabilidad:
1) automatizando cálculos y gráficas;
2) en la exploración de los datos;
3) en la visualización de conceptos abstractos;
4) en la simulación de fenómenos aleatorios;
5) en la investigación de problemas reales; y/o
6) proporcionando herramientas de colaboración entre estudiantes.
En cuanto a los tipos de tecnología que actualmente existen para la enseñanza de la probabilidad y estadística podemos mencionar a los paquetes de cómputo estadístico (SPSS, Minitab), software educativo (Fathom, Probability Explorer, ProbSim, SimulaProb), hojas de cálculo (Excel) y componentes de software en ambiente web también conocidos como Applets y calculadoras graficadoras. Estas últimas equipadas además con un sistema algebraico computarizado que las hace apropiadas para la enseñanza y aprendizaje del álgebra (Cedillo, 2006).
Los paquetes de cómputo estadístico son programas muy completos y poderosos que permiten realizar extensos y complicados análisis de grandes volúmenes de datos; aunque no fueron diseñados con propósitos educativos se utilizan con bastante frecuencia en la clase de estadística, especialmente a nivel universitario. Por su parte, las herramientas de software educativo que son diseñadas con propósitos específicos de enseñanza y aprendizaje han empezado emerger en los años recientes, sobre todo a partir de la disponibilidad de cada vez más resultados de investigación sobre la problemática de aprendizaje de estas disciplinas, algunas en versión comercial y otras de uso libre. En cuanto a las hojas de cálculo cabe mencionar que poseen una diversidad de comandos estadísticos que facilitan el cálculo estadístico y la construcción de gráficas, así como la simulación de ciertos fenómenos aleatorios. Finalmente, los Applets y otros recursos basados en ambientes web son cada vez más frecuentes en las páginas Internet. Ejemplos de la diversidad de estos recursos son descritos en Inzunsa (2007) y Garfield y BenZvi (2008).
Teniendo en cuenta lo anterior, en el presente trabajo de investigación nos hemos propuesto diseñar y poner a prueba un ambiente de aprendizaje basado en el uso de computadora para la enseñanza de la estimación por intervalos de confianza, un concepto de inferencia estadística complejo para los estudiantes universitarios. Este tema involucra otros conceptos de suma importancia como son el error estándar, margen de error, confiabilidad, variabilidad y tamaño de muestra, cuya relación e impacto en la amplitud y confiabilidad de una estimación no resulta fácil de comprender desde un enfoque tradicional basado solamente en el uso de fórmulas y tablas de probabilidad.
Consideramos que la tecnología puede ayudar a visualizar y comprender las complejas relaciones que existen entre estos conceptos, sobre todo por la capacidad dinámica y de múltiples representaciones que tiene el software Fathom (Finzer et al., 2002) y la capacidad de Excel para generar una multitud de casos en forma recursiva.
Antecedentes
Una de las áreas con mayor aplicación de la estadística práctica es la inferencia estadística. Su importancia radica en que mediante la aplicación de sus métodos es posible obtener conclusiones significativas de toda una población con la información que proporcionan los datos de una sola muestra o un experimento. Dichos métodos utilizan el azar para seleccionar los elementos de la muestra o asignarlos a los diversos tratamientos de un experimento, lo que permite el uso de la teoría de la probabilidad para evaluar la confiabilidad de los resultados obtenidos.
Los orígenes de la inferencia estadística se remontan al siglo XVI, cuando los matemáticos empezaron a darse cuenta que muchos conceptos de probabilidad no podían separarse de la estadística y, como consecuencia, empezaron a considerar modelos probabilísticos para inferir propiedades de la observación de datos. Sin embargo, es hasta el siglo XX cuando la inferencia estadística empieza a tener su mayor desarrollo como disciplina científica, específicamente en las décadas de 1920 y 1930 con los trabajos desarrollados por Fisher, Neyman y Pearson quienes, apoyados en los avances del cálculo de probabilidades y la estadística teórica, sentaron las bases teóricas y metodológicas.
Los dos métodos de inferencia estadística más ampliamente utilizados son la estimación de parámetros (puntual e intervalos de confianza) y el contraste o prueba de hipótesis. En términos generales, la estimación de parámetros busca la generalización de los resultados de una muestra a una población, mientras que el contraste de hipótesis permite determinar si un patrón en los datos puede ser atribuido a un efecto real o es producto del azar (Garfield y BenZvi, 2008). Las pruebas de hipótesis han sido el método de inferencia estadística más utilizado en muchas disciplinas científicas (como la agronomía y las ciencias de la conducta); sin embargo su empleo no ha estado exento de controversia y en años recientes se ha llamado la atención para no centrar todo el esfuerzo de decisión de un estudio en los resultados de las pruebas de hipótesis y se recomienda que dichos resultados sean complementados con los intervalos de confianza.
En particular, un intervalo de confianza es un rango de valores calculado a partir de los datos de una muestra entre los cuales se estima que podría estar el valor de un parámetro de la población (la media o una proporción). Dado que la población no fue estudiada en su totalidad, toda estimación está sujeta a cierto nivel de confiabilidad (probabilidad de acierto), la cual indica el porcentaje de muestras que al ser tomadas en condiciones idénticas, el intervalo calculado estaría incluyendo el verdadero valor del parámetro.
La idea matemática que da sustento a lo anterior y que permite calcular los límites del intervalo de confianza y su confiabilidad, consiste en que los valores muéstrales que se usan para realizar la estimación (también llamados estadísticos) tienen una distribución de probabilidad bien definida. De acuerdo con el teorema del límite central, dicha distribución es aproximadamente normal siempre que el tamaño de muestra sea mayor a 30, lo cual es bastante frecuente en muchas aplicaciones de la estadística.
Entonces, seleccionada una muestra aleatoria de una población, se calcula el valor muestral de interés (por ejemplo, una proporción) el que constituye una estimación puntual del valor del parámetro que se desea conocer; posteriormente y dado que se conoce su distribución de probabilidad, es posible calcular el error de muestreo también conocido como margen de error el cual se suma y se resta a la estimación puntual para formar el intervalo. El error de muestreo es la distancia que existe de la estimación puntual a cualquiera de los límites del intervalo. Por ejemplo, si una muestra aleatoria arroja que cierta característica está presente en cierta proporción p, ± el margen de error es de 3%, entonces el intervalo queda de la forma p ± 0.03. En general un intervalo de confianza tiene la siguiente forma: estimación puntual ± margen de error.
Los desarrollos que se utilizan para la formulación anterior en los cursos universitarios y en la mayoría de los libros de estadística, son expresados a través de un lenguaje matemático y teoría de la probabilidad que con frecuencia está fuera del alcance de muchos estudiantes, sobre todo aquellos que son de áreas no matemáticas. Desde esta perspectiva, si bien muchos estudiantes aprenden a realizar los cálculos necesarios para resolver un problema de inferencia, no siempre logran comprender el proceso subyacente ni los conceptos involucrados.
Sin embargo, a partir del desarrollo de la tecnología computacional aplicada a la educación y particularmente en la educación matemáticaexperimentado en los últimos años. En la literatura de educación estadística (Gordon y Gordon, 1992; Mills, 2002; Scheaffer, 1992; MeletiouMavrotheris, 2004) con frecuencia se sugiere la utilización de simulación computacional como alternativa para abordar la problemática del aprendizaje de la inferencia estadística. Se señalan diversas ventajas de la simulación respecto del enfoque tradicional de enseñanza, como es el hecho de permitir un acercamiento empírico mediante la selección repetida de muestras de una misma población, calculando el estadístico en cada una de las muestras y acumulándolos para formar la distribución muestral, que es la base para los métodos de inferencia estadística. Este proceso está más relacionado conceptualmente con el proceso real de inferencia y requiere de pocos antecedentes matemáticos por parte de los estudiantes.
Para fijar ideas sobre los elementos que intervienen en un intervalo de confianza, consideremos el caso de dos estadísticos muy comunes (media y proporción) y un tamaño de muestra mayor a 30 para asegurar que su distribución muestral es normal o aproximadamente normal.
Intervalo de confianza para la media:
Intervalo de confianza para la proporción:
Donde
• x, p son los estimadores puntuales obtenidos de la muestra para estimar de la media y la proporción poblacional respectivamente.
• σ es la deviación estándar de la población (cuando se desconoce se sustituye por la desviación estándar muestral).
• n es el tamaño de la muestra.
• se denomina error estándar de la media.
• se denomina error estándar de la proporción.
• Zα es un valor crítico que se toma distribución normal y está en función del coeficiente de confianza.
• Z α se denomina margen de error de la media muestral
•Z α se denomina margen de error de la proporción muestral.
De lo anterior puede verse que el margen de error y, por ende, la amplitud del intervalo depende de dos factores básicamente: el tamaño de muestra (n) y la confiabilidad del intervalo (Zα). El efecto de la confiabilidad es directamente proporcional, lo cual quiere decir que a mayor confiabilidad (probabilidad de acierto) se tendrán intervalos más amplios; mientras que el efecto del tamaño de muestra es inversamente proporcional; lo que significa que a mayor tamaño de muestra se tendrán intervalos más estrechos.
Olivo y Batanero realizan una descripción detallada sobre el significado que tiene un intervalo de confianza como procedimiento:
[...] calculado el error estándar del estadístico y obtenido un valor crítico correspondiente al coeficiente de confianza elegido, el producto del valor crítico por el error estándar se sumaría y restaría al valor del estadístico en la muestra, obteniendo así los límites del intervalo. Este procedimiento general se particulariza dependiendo del parámetro a estimar (media, proporción, varianza, etc.) y según las condiciones (tipo de distribución, qué se conoce de la misma, etc.), puesto que ellos determinan la distribución muestral del estadístico (Olivo y Batanero, 2007: 38).
Vemos, entonces, que la comprensión del intervalo de confianza requiere una serie de otros objetos matemáticos previos (tanto conceptos como procedimientos) como población y muestra, estadístico y parámetro, error estándar y cálculo del mismo para diversos estadísticos, distribución muestral, valor crítico o uso de las tablas de diferentes distribuciones (Olivo y Batanero, 2007).
En la revisión de la literatura, entre los pocos trabajos de investigación que hemos encontrado para conocer las dificultades de comprensión que tienen los estudiantes con los intervalos de confianza, se encuentran los realizados por Behar (2001), Olivo y Batanero (2007) y Cumming y Fidler (2005). Entre los principales obstáculos reportados por estos autores, está el considerar a los intervalos como estadísticos descriptivos ignorando su naturaleza inferencial y diversas ideas equivocadas sobre la forma en que intervienen los distintos conceptos en un intervalo de confianza; por ejemplo, la relación entre el ancho de los intervalos y el tamaño de la muestra. Behar (2001) identifica dificultades de los alumnos para relacionar el ancho del intervalo con el nivel de confianza y la falta de asociación de la confianza con un mecanismo aleatorio generador de intervalos a partir de muestras aleatorias, así como el nivel de confianza con la frecuencia relativa, a la larga, de que los intervalos generados por tal mecanismo aleatorio incluyan al verdadero parámetro de la población. Por su parte Olivo y Batanero (2007) encuentran errores como considerar que en distintas muestras se obtendrá el mismo intervalo y que el coeficiente de confianza no hace cambiar el intervalo entre otros. Como conclusión de las implicaciones de sus estudio, estos autores recomiendan diseñar unidades didácticas basadas en la simulación para incrementa la relevancia del aprendizaje.
Con base en el análisis y reflexiones anteriores en el presente trabajo nos hemos planteado la siguiente pregunta de investigación: ¿En qué medida un ambiente computacional basado en el uso de simulación ayuda a que los estudiantes desarrollen un razonamiento adecuado y a que comprendan la relación que existe entre los diversos factores que intervienen en un intervalo de confianza?
Perspectiva teórica
Hemos señalado anteriormente la potencialidad cognitiva que poseen las herramientas computacionales en la educación matemática; sin embargo es necesario adoptar una perspectiva teórica que nos permita orientarnos hacia el uso más eficiente de la tecnología computacional en el salón de clases. En este sentido, en la presente investigación hemos adoptado el enfoque en el cual la computadora es vista como una herramienta cognitiva para el aprendizaje de las matemáticas en el sentido definido por Pea (1987) y un modelo de operación para desarrollar ambientes de razonamiento estadístico propuesto por (Garfield y BenZvi, 2008).
Para Pea (1987:91) "una herramienta cognitiva es cualquier medio que ayuda a trascender las limitaciones de la mente, en el pensamiento, en el aprendizaje y las actividades de resolución de problemas". Particularmente en el caso de las computadoras, constituyen una extraordinaria y potente herramienta cognitiva para aprender a pensar matemáticamente, con ellas se pueden operar no sólo números sino también símbolos, y permiten almacenar y manipular símbolos dinámicamente y permiten interacciones con los usuarios en tiempo real.
En educación matemática hay una tendencia dominante donde se ve a las computadoras simplemente como amplificadoras de las capacidades humanas (metáfora amplificadora). Desde esta perspectiva, son consideradas herramientas que permiten realizar tareas de una manera mucho más rápida y precisa, pero sin un cambio cualitativo en lo que antes se hacía sin ellas. En cambio, otra perspectiva consiste en ver a las computadoras como herramientas cognitivas, las cuales cuando son usadas apropiadamente no sólo permiten amplificar las capacidades humanas, sino que tienen el potencial de provocar cambios estructurales en el sistema cognitivo de los estudiantes (metáfora reorganizadora) a través de una reorganización y transformación de las actividades que ellos realizan (Pea, 1987).
Apoyado en estas ideas, Dörfler (1993) propone un marco conceptual e identifica diversas formas en las que la introducción de una herramienta computacional en la enseñanza de las matemáticas puede provocar una reorganización en el sistema cognitivo de los estudiantes:
1) Cambio de las actividades a un nivel cognitivo más alto (metanivel). Las computadoras apoyan acciones de un nivel cognitivo más alto mediante el resumen y simplificación de procesos complejos mediante entidades fácilmente manipulables. Para que esto ocurra es necesario un profundo conocimiento y experiencia sobre el modo de trabajar con la herramienta.
2) Cambio de objetos con los que se realizan las actividades. El uso de herramientas tecnológicas trae consigo un cambio en los objetos con los que se trabaja. Por consiguiente, no sólo cambian la estructura y la forma de la actividad, sino también el contenido. Por ejemplo, al utilizar un software estadístico, el conjunto de objetos se amplía y se consideran tablas con datos poblacionales, con datos muéstrales, con medidas descriptivas, con valores de estadísticos, así como fórmulas y diferentes tipos de gráficas. Estas representaciones pueden llegar a ser objetos de la actividad cognitiva, al cambiar valores de parámetros, datos y escalas para ver su efecto en otros objetos con los que se encuentran ligados. Esta capacidad del software conlleva una reorganización de la actividad cognitiva y un cambio en el enfoque de atención a un nivel cognitivo más alto.
3) Enfoca las actividades en transformación y análisis de representaciones. Procesos que involucran resolución de problemas y otros procesos cognitivos muchas veces pueden ser guiados y organizados de manera exitosa por representaciones concretas, imágenes o modelos de la situación dada. Entonces, los procesos de pensamiento consisten esencialmente de transformaciones y manipulaciones de estas representaciones. Para apoyar este proceso la computadora ofrece una gran variedad de elementos gráficos, numéricos y simbólicos para la construcción y manipulación de representaciones.
4) Apoya la cognición situada y resolución de problemas. Las computadoras pueden ayudar a los estudiantes a tender un puente entre estadística y realidad permitiendo el acceso al modelado de situaciones concretas y datos reales. El diseño de actividades cercanas al interés y conocimiento de los estudiantes, hace que al ser trabajadas con el sofware, las manipulaciones y los resultados tengan referencia concreta al contexto de la actividad y de esta manera los estudiantes sitúan su conocimiento.
En cuanto al modelo de operación, el presente trabajo retoma principios teóricos para crear Ambientes de Aprendizaje para el Razonamiento Estadístico (AARE) definidos por Garfield y BenZvi (2008) y Cobb y McClain (2004). Estos principios se basan en las implicaciones de un enfoque constructivista y el uso de tecnología para una buena práctica de enseñanza; su propósito es estimular a los estudiantes a construir su conocimiento mediante actividades que les proporcionen oportunidades de pensar, razonar y reflexionar en su aprendizaje, además de la discusión y reflexión con sus compañeros.
Garfield y BenZvi (2008) definen un Ambiente de Aprendizaje para el Razonamiento Estadístico (AARE) como una clase de estadística efectiva y positiva donde los estudiantes desarrollan una profunda y significativa comprensión y la habilidad para pensar y razonar estadísticamente; "enfatizamos que es más que un libro de texto, actividades o trabajos que damos a los alumnos. Es la combinación de materiales de texto, actividades en clase y cultura, discusión, tecnología, métodos de enseñanza y evaluación" (p. 48).
El modelo AARE está basado en seis principios del diseño instruccional descritos por Cobb y McClain (2004):
1) Se enfoca en el desarrollo de las ideas estadísticas centrales (datos, distribución, variabilidad, centralidad, modelos, covariación, aleatoriedad, muestreo e inferencia) en lugar de un conjunto de herramientas, técnicas y procedimientos de presentación.
2) Usa datos reales y motivadores para interesar a los estudiantes a hacer y probar conjeturas.
3) Usa actividades en clase para apoyar el desarrollo del razonamiento de los estudiantes.
4) Integra el uso de herramientas tecnológicas adecuadas que permitan a los estudiantes probar sus conjeturas, explorar y analizar datos y desarrollar su razonamiento estadístico.
5) Promueve un discurso en clase que incluye argumentos estadísticos e intercambios sustentados que se enfoquen en ideas estadísticas significativas .
6) Utiliza el diagnóstico para aprender lo que los estudiantes saben y para monitorear el desarrollo de su aprendizaje estadístico para evaluar los planes de instrucción y su avance.
Metodología
El estudio se realizó con un grupo de 17 estudiantes universitarios de la licenciatura en Estudios internacionales de la Universidad Autónoma de Sinaloa mientras tomaban el curso de Probabilidad durante el primer semestre del ciclo escolar 20082009, en el cual se considera el tema de intervalos de confianza. La duración del estudio fue de cuatro sesiones de dos horas cada una, más dos horas de entrevistas con estudiantes seleccionados. Sus antecedentes matemáticos consistían en un curso de Estadística descriptiva y otro de Matemáticas básicas (breve repaso del álgebra de la preparatoria) que habían tomado el ciclo escolar anterior. Antes de iniciar con las actividades se había abordado el tema de intervalos de confianza y desarrollado las expresiones para el intervalo de una media y una proporción.
El papel del investigador fue de un guía que planteó actividades diseñadas con el propósito de que los estudiantes construyeran, por sí mismos y apoyados en las capacidades cognitivas de las herramientas computacionales utilizadas, un razonamiento adecuado sobre los intervalos de confianza. El investigador, que a la vez era el profesor, sólo intervino en algunos casos en que los estudiantes tuvieron algún problema con el software para seguir avanzando. Ellos fueron partícipes de la introducción de las fórmulas necesarias para generar los resultados, toda vez que éstas ya habían sido desarrolladas antes de las actividades. En este sentido, la propuesta plantea un ambiente virtual para aprendizaje constructivista.
En total se diseñaron dos actividades basadas en datos reales que obtuvimos de la compañía encuestadora Consulta Mitofsky (www.consulta.com.mx). La primera sobre una encuesta que se realizó para conocer la proporción de mexicanos que tienen familiares en Estados Unidos; la segunda relacionada la proporción de mexicanos que considera que la inseguridad es el principal problema del país; ambas actividades son un contexto de interés para los estudiantes de esta carrera. Previo a las actividades ya habían estado manejando las herramientas de software (Fathom y Excel) utilizadas en la investigación, sobre todo en la parte del análisis de datos y en la simulación de algunos experimentos aleatorios en el tema de probabilidad, así que tenían cierta familiaridad con algunas de sus funciones. Sin embargo fue necesaria una actividad introductoria previa para conocer comandos adicionales que permitían construir distribuciones muéstrales e intervalos de confianza.
Fathom es un software educativo que permite realizar análisis de datos en forma dinámica e interactiva; es decir, los usuarios tienen la posibilidad de cambiar representaciones y parámetros de manera directa en la pantalla mediante la opción de arrastre del cursor y visualizar de inmediato los cambios producidos; posibilita la liga entre varias representaciones (gráficas, tabulares y simbólicas) en forma simultánea; además posee una gran capacidad para la simulación de fenómenos aleatorios, como en este caso la extracción de muestras de una población; para el caso de la simulación de este proceso, se requiere introducir el modelo de la población con sus parámetros respectivos e indicar la cantidad de muestras a seleccionar; posteriormente se puede pedir al software que realice algunos cálculos con los resultados obtenidos.
Por ejemplo, el cuadro 1 muestra la simulación de 2000 muestras de tamaño 50 extraídas de la población de mexicanos, donde 40% tiene al menos un familiar en Estados Unidos, la cual fue realizada por una de las estudiantes del curso. Se trata de una población con distribución binomial con parámetros n=50 y p=0.40. La última columna representa la proporción de mexicanos que tiene un familiar en Estados Unidos en cada muestra de 50 mexicanos y su correspondiente gráfica es la número 1.
En la primera sesión se hizo énfasis en que los estudiantes construyeran distribuciones muéstrales para diferentes tamaños de muestra (10, 20 y 50), con el propósito de que exploraran e identificaran visualmente, y en términos de la desviación estándar, que a mayor tamaño de muestra disminuye la variabilidad y por tanto se generan intervalos más estrechos pero con la misma confiabilidad.
Otra parte importante del uso de Fathom en que se puso en juego en ambas actividades (sesión 2 y 3) consistió en buscar la comprensión de la confiabilidad de un intervalo de confianza un concepto que presenta ciertas dificultades de comprensión de acuerdo con la literatura. El software permite simular un gran número de intervalos e identificar si el parámetro de interés se encuentra dentro o fuera del intervalo; el porcentaje de intervalos que capturan al parámetro debe ser igual o aproximado a la confiabilidad especificada. Para ello los estudiantes hicieron uso de la expresión del intervalo de confianza para una proporción que había desarrollado en clases anteriores y la cual involucra el margen de error. Un ejemplo de ello (actividad 2: problema de la inseguridad) se muestra en el cuadro 2.
En la cuarta sesión y en el marco del problema de la actividad 1, se utilizó Excel para introducir una fórmula en función de los parámetros que inciden en un intervalo de confianza (el valor del estadístico p, la confiabilidad Z, y el tamaño de la muestra n). Manteniendo fijos los dos primeros, se hizo variar el tamaño de la muestra. El propósito era que los estudiantes visualizaran el efecto del tamaño de la muestra y la confiabilidad en el margen de error y la amplitud de los intervalos, viendo los resultados generados y apoyándose mediante alguna gráfica como se muestra en la figura 1.
El trabajo desarrollado por los estudiantes en Excel y Fathom en cada una de las actividades fue guardado en una carpeta al final de cada sesión y respaldado por el investigador para su posterior análisis. En el caso de Fathom, la hoja de trabajo dispone de una ventana de texto que los estudiantes utilizaron para registrar sus respuestas a las preguntas planteadas en cada actividad. En el análisis de los resultados se transcriben partes importantes de las respuestas tal como fueron escritas por lo estudiantes. Al final de las actividades se aplicó un cuestionario (algunos de los ítems fueron retomados de la investigación de Olivo y Batanero, 2007) para conocer el razonamiento sobre el tema y se hicieron algunas entrevistas con determinados estudiantes para profundizar en su comprensión sobre ciertos aspectos relevantes relacionados con la pregunta de investigación.
Análisis y discusión de resultados
Actividad 1
Una encuesta nacional realizada por Consulta Mitofsky durante el primer trimestre de 2008 señala que 4 de cada 10 mexicanos tenemos un pariente trabajando o viviendo en Estados Unidos.
1. Abre el programa Fathom y define la variable FAMILA EN EU.
2. Genera una instrucción que reproduzca la proporción de mexicanos que tienen familia en Estados Unidos es decir p=0.40, para muestras de 10, 20 y 50.
El propósito de esta primera actividad fue que los alumnos identificaran visualmente, y en términos de la desviación estándar, que a mayor tamaño de muestra disminuye la variabilidad y por tanto se generan intervalos más estrechos pero con la misma confiabilidad. Se les solicitó que construyeran gráficas con los resultados de la simulación y calcularan media y desviación estándar de cada distribución. Algunos argumentos expresados por los estudiantes se muestran a continuación:
Rosalía: A mayor tamaño en la muestra se puede concluir que tanto la desviación estándar como la media se acercan a los resultados obtenidos mediante teoría. En cuanto a la forma que adoptan los gráficos se observa que a mayor tamaño de n, el gráfico se asemeja más a la forma de lo que comúnmente se llama campana de Gauss__La variabilidad de los datos es inversamente proporcional al aumento del tamaño de la muestra, es decir cuando tenemos una muestra de n= 10, los datos fluctúan de 0 a 10 y cuando tenemos una muestra de n= 50, se disminuye de 1 a 7, por lo que la precisión de los resultados se incrementa al aumentar el tamaño de la muestra, ya que el intervalo de confianza se va afinando y acercando resultados más exactos.
Karla: La media fue similar en todos los casos. Entre más grande es la muestra, menor es la desviación estándar. Entre más grande es la muestra menor es el margen de error.
Diana y Silvia: Cuando tomamos la muestra de 10 personas, la desviación estándar se presentaba distante de la media, ya que la desviación era de 0.15. En la segunda gráfica tomamos una muestra de 20 personas y los datos se van agrupar más en el centro ya que la desviación disminuyó a 0.1. Para terminar con la muestra de 50 personas, los datos están más centrados, pues la desviación estándar disminuyó a 0.06. Como conclusión determinamos que entre mayor es la muestra, el margen de error y la desviación estándar es menor y la realidad está mostrada con mayor precisión.
De los resultados anteriores podemos observar que los estudiantes han logrado apreciar el efecto del tamaño de muestra en propiedades importantes de las distribuciones muéstrales, que son la base para un acercamiento empírico a los intervalos de confianza. Las características de herramienta cognitiva de Fathom, como disponer de varias representaciones gráficas y cálculos de medidas descriptivas de manera simultánea para diferentes tamaños de muestra, les facilitó a los estudiantes la identificación del patrón de las distribuciones.
Actividad 2
En febrero de 2008 Consulta Mitofsky realizó una encuesta con una muestra aleatoria de 1000 mexicanos y les preguntó sobre qué problema consideraban principal para el país y 20% contestó que la inseguridad. Simula el problema anterior (200 veces) y determina el margen de error e intervalo de confianza de 95% para la proporción de mexicanos que piensa que la inseguridad es el principal problema del país.
Luis: Al realizar la muestra con 200 personas, 94% cayó dentro del intervalo y 19.6% fue el resultado obtenido de las personas que creen que el problema más grande del país es la inseguridad, muy cercano a 20% que esperábamos.
Gabriela: La confiabilidad de la encuesta se muestra debido a que la mayoría cae dentro del intervalo; por su parte, las que cayeron fuera se encuentra en los límites.
Elena: A mayor tamaño y número de muestras, el margen de error tiende a decrecer.
Dina: La mayoría de los datos caen dentro, en 200 casos cayeron 11 fuera, lo que demuestra la confiabilidad que habíamos establecido de 95%.
A continuación se realiza el análisis de algunos fragmentos de la entrevista con dos estudiantes, los cuales muestran la comprensión que desarrollaron en el ambiente de aprendizaje:
Instrucción: Abre la hoja de Excel con el problema de los mexicanos y sus familias en EU. Como puedes ver p=0.40 (40% de los mexicanos tiene familia en los EU) y se tienen dos niveles de confianza (90% y 95%). La hoja muestra varios intervalos de confianza de la proporción p=0.40 para diversos tamaños de muestra, manteniendo fija la confiabilidad y el tamaño de muestra (ver página 17). Veamos las columnas que representan el margen de error. ¿Qué pasa con el margen de error al incrementarse de 10 a 20?
Luisa Fernanda: Disminuye de 0.25 (25%) a 0.18 (18%), después a 0.11 (11%). Conforme aumenta el tamaño de muestra el error disminuye pero cada vez más lentamente.
I: Hagamos una gráfica con el margen de error contra el tamaño de muestra (gráfica 2).
LF: Lo que ya había dicho, que a mayor tamaño de muestra, menor es el margen error. Pero además se observa que a partir de cierto momento el error casi no decrece a pesar de incrementar el tamaño de la muestra.
I: Considera por ejemplo el caso de un encuestador que pide que le encuesten 10,000 personas, ¿tendría algún sentido hacerlo?
LF: Como vimos, se reduce mínimamente el margen de error y no tiene caso gastar en un estudio así para conseguir tan poca ganancia en el margen de error.
I: Ahora pasemos a la siguiente columna de 95% de confianza y compara con la de 90% para el tamaño de muestra de 10.
LF: Hay mayor margen de error en el de 95% de confianza (0.30 contra 0.25).
I: ¿Para todas las muestras se observa el mismo comportamiento?
LF: Sí.
I: ¿No te parece algo contradictorio que a mayor confianza se tenga mayor margen de error?
LF: Es por lo mismo, como necesito mayor certeza es más amplio el intervalo, eso se puede ver en la siguiente columna, son más anchos los de 95% que los de 90%. Para mí es algo lógico porque si quiero más confianza el intervalo debe ser más ancho.
El análisis de la entrevista de Luisa Fernanda nos permite ver que ella ha logrado tener clara la forma en que influyen los diversos conceptos que intervienen en un intervalo de confianza. La forma como fue diseñada la hoja de Excel y las opciones gráficas que ofrece, sin duda son elementos que ayudaron a Luisa Fernanda a comprenderlos. Por ejemplo, le queda claro que conforme aumenta el tamaño de muestra disminuye el margen de error, pero no sólo eso sino que también advierte que la disminución se hace cada vez más pequeña; por ello el investigador le cuestiona sobre un tamaño de muestra demasiado grande, para conocer su opinión sobre el logro en cuanto a margen de error al aumentar a tanto el tamaño de muestra, lo cual es respondido de manera adecuada. Otro aspecto que vale la pena resaltar es que a la entrevistada no le causa conflicto la noción de precisión y confiabilidad situación que en la literatura se reporta como algo frecuente, al señalar que el intervalo más amplio es más confiable pero menos preciso.
Instrucción: Abre el archivo de Fathom que contiene la simulación que hiciste del problema de inseguridad como principal problema del país. ¿Por qué colocaste dos veces Sí en la urna de población? (cuadro 3)
Mariel: Porque los dos Sí representan el 20% de la población que considera que la inseguridad es el principal problema del país.
I: ¿Por qué solicitaste una muestra de 1000?
M: Porque el problema habla de seleccionar una muestra aleatoria de 1000 mexicanos (cuadro 4).
I: Si revisas la última muestra que simulaste te da un 19% que opina sobre la inseguridad como principal problema, ¿te parece congruente con el problema?
M: Sí, porque tenemos que 20% de la población opina así (es el valor del parámetro).
I: Hasta dónde te parecería (qué rango) congruente.
M: Como de 17 a 23 más o menos.
I: Ahora vemos la simulación de 200 muestras que tienes acá. ¿Qué representa para ti la primera columna? (cuadro 5).
M: Representa el porcentaje de personas que consideran a la inseguridad como principal problema en cada muestra. Por ejemplo, en la primera muestra el 21% opina en ese sentido. Se ven que todos andan cerca y alrededor de 20%.
I: Si hacemos una gráfica de eso, ¿cómo la interpretas? (gráfica 3)
M: Nos muestra las respuestas que caen desde 16.5 hasta casi 24. Hay algunos casos muy dispersos que se pueden presentar, pero la mayoría se concentran alrededor del 20%, particularmente entre el 18% y el 23%.
I: ¿Podrías hacer una estimación del margen de error con sólo ver la gráfica?
M: Un 3%, porque con ello me voy hasta 17 y 23 y después de eso casi no hay datos.
I: Ahora vemos el margen de error obtenido en las simulaciones. Hagamos una gráfica con los márgenes de error de las 200 simulaciones (gráfica 4).
I: ¿Cuál sería el promedio de los errores aproximadamente?
M: 2.5%, yo predije 3% anteriormente.
I: Ahora veamos la columna de captura y construye una gráfica con dichos resultados. Interprétala (gráfica 5).
M: Que 97% de las muestras cae dentro del intervalo y sólo un 3% cae fuera.
I: Las simulación la hiciste con una confianza de 95%, ¿crees que haya una relación entre este 95% y el 97% de muestras que caen dentro?
M: Sí, sólo que ocupo muchos casos más para que sean iguales.
I: Incrementa entonces a 1000 simulaciones
M: Ahora casi nos da 95%, o sea 95.3%
En la entrevista con Mariel abordamos conceptos diferentes que en la entrevista con Luisa Fernanda. Sus explicaciones muestran que no tuvo problemas para operar con el software Fathom al definir el modelo de la población y tomar las muestras. Al cuestionársele sobre la congruencia de un valor muestral obtenido ella muestra conciencia de la variabilidad muestral, pero lo más importante es que logra identificar el patrón de variación al observar la primera columna y establece un intervalo de confianza de manera intuitiva así como una valor para el margen de error, el cual está muy cerca del valor verdadero obtenido mediante cálculos. Dicha predicción la confirma posteriormente con la ayuda de una gráfica.
Finalmente, en el cuadro 6 se muestran los resultados del cuestionario (ver anexo) en términos del número y porcentaje de respuestas correctas por cada ítem obtenido por los estudiantes al final de las actividades.
Los resultados muestran que muchos estudiantes lograron desarrollar un razonamiento adecuado sobre los conceptos que se involucran en los intervalos de confianza; sin embargo es importante señalar las principales dificultades que tuvieron muchos otros estudiantes para comprenderlos. Por ejemplo, en el ítem 3 que involucra la definición de intervalo de confianza, 8 de los 17 estudiantes consideraron que un intervalo de confianza especifica un rango de valores dentro de los cuales cae el parámetro con seguridad, cuando en realidad especifica un intervalo de posibles valores para el parámetro, y un porcentaje de intervalos que cubrirán aproximadamente dicho valor para el mismo tamaño de muestra. En el ítem 4, que requería identificar el efecto del tamaño de muestra en la precisión en un intervalo, 6 de los 17 estudiantes consideraron que ambos intervalos tie nen la misma precisión, lo que muestra además que confundieron la precisión con la confiabilidad. En los ítems 5 y 6, la principal dificultad consistió en que muchos estudiantes no tienen claro el efecto del nivel de confiabilidad en el ancho de un intervalo.
En suma, el efecto del tamaño de muestra y la confiabilidad en el ancho de un intervalo de confianza, la confusión entre precisión y confiabilidad y la idea que un intervalo de confianza especifica un intervalo de valores que captura con seguridad a un parámetro, constituyeron las principales dificultades para los estudiantes; no obstante que las actividades estaban diseñadas para mostrar la relación entre estos conceptos; lo que demuestra la complejidad del concepto de intervalos de confianza, misma que con frecuencia es subestimada cuando se aborda en un ambiente de lápiz y papel centrado en el uso de fórmulas y procedimientos. Una explicación para ello podría ser el poco tiempo que se dedicó al abordaje de estos conceptos, pues fueron sólo dos actividades donde se trabajó con ellos. La complejidad de estas relaciones ha quedado de manifiesto en otras investigaciones y se debe profundizar más en ellas en su enseñanza.
Conclusiones
La puesta a prueba del ambiente computacional para la enseñanza de la estimación de parámetros a través de intervalos de confianza no obstante que consistió sólo en un par de actividades, muestra que los estudiantes pueden construir un razonamiento adecuado sobre conceptos estadísticos difíciles, sin necesidad de recurrir a conocimientos matemáticos avanzados como suele darse en el enfoque tradicional.
Las herramientas computacionales utilizadas en conjunto con actividades diseñadas bajo un modelo pedagógico apropiado y un ambiente de aprendizaje constructivista, como fue en este caso, mostraron su potencial cognitivo al ubicar en una misma pantalla resultados en diferentes representaciones y fácilmente accesibles, lo cual ayudó no sólo a amplificar la capacidad cognitiva de los estudiantes al permitirles calcular un gran número de casos en un tiempo reducido, sino a reorganizar ideas a través de la exploración de representaciones.
El poder de simulación de Fathom y sus multiplicidad y flexibilidad de representaciones permitieron a los estudiantes explorar fácilmente la relación entre el tamaño de muestra, el margen de error, la amplitud del intervalo y la confiabilidad y, así, construir un razonamiento adecuado sobre la relación entre ellos. Asimismo, Excel permitió calcular los intervalos de confianza para una gran cantidad de tamaños de muestra, con lo cual los estudiantes pudieron identificar algunos patrones de comportamiento en los conceptos involucrados. En un ambiente de lápiz y papel, esta exploración resulta muy difícil de darse, por lo que generalmente se recurre al cálculo aislado de los intervalos de confianza, y en ausencia de otros tipos de representaciones diferentes a las simbólicas. Definitivamente el ambiente computacional permitió una actividad cognitiva de mayor nivel que el tedioso cálculo mediante fórmulas. Consideramos que la investigación reporta indicios positivos que son necesarios profundizar en otros estudios más extensos.
Referencias
Behar, Roberto (2001). Aportaciones para la mejora del proceso de enseñanza aprendizaje de la estadística, tesis doctoral, Universidad Politécnica de Cataluña. [ Links ]
BenZvi, Dani (2000). "Toward understanding the Role of Technological Tools in Statistical Learning", Mathematical Thinking and Learning, 2(2), Mahwah NJ: Lawrence Erlbaum Associates, Inc. pp. 127155. [ Links ]
Biehler, Rolf (1991). "Computers in probability education", en R. Kapadia y M. Borovcnik (eds.). Chance Encounters: probability in education. A review of research and pedagogical perspectives, Dordrecht: Kluwer, pp. 169212. [ Links ]
Bransford, John; Brown, Ann y Coking, Rodney (1999). La creación de ambientes de aprendizaje en la escuela. Serie Cuadernos de la Reforma, México: Secretaría de Educación Pública. [ Links ]
Cedillo, Tenoch (2006). "Enseñanza de las matemáticas en la escuela secundaria: Los sistemas algebraicos computarizados", Revista Mexicana de Investigación Educativa, 11(28), pp. 129153. [ Links ]
Chance, Beth y Rossman, Allan (2006). "Using simulation to teach and learn statistics", en A. Rossman y B. Chance (eds.), Proceedings of the Seventh International Conference on Teaching Statistics. [cdrom]. Voorburg: The Netherlands: International Statistical Institute. [ Links ]
Chance, Beth; BenZvi, Dani; Garfield, Joan y Medina, Elsa (2007). "The role of technology in improving student learning of statistics", Technology Innovations in Statistics Education: 1(1). Disponible en http://repositories.cdlib.org/uclastat/cts/tise/vol1/iss1/art2 (consultado: 12 de enero de 2009). [ Links ]
Cobb, Paul y McClain, Klain (2004). "Principles of instructional design for supporting the development of students' statistical reasoning", en D. BenZvi y J. Garfield (eds.) The Challenge of Developing Statistical Literacy, Reasoning and Thinking. Nueva York: Springer Verlag, 375395. [ Links ]
Cumming, Geoff y Fidler, Fiona (2005). "Interval estimates for statistical communication: problems and possible solutions", IASE/ISISatellite. Disponible en www.stat.auckland.ac.nz/~iase/publications/14/cumming.pdf [ Links ]
Dörfler, Willy (1993). "Computer use and views of the mind", en Ch. Keitel y K. Ruthven (eds.). Learning from Computers: Mathematics Education and Technology. Nueva York: Springer Verlag. [ Links ]
Finzer, Willian; Erickson, Tim y Binker, Jill (2002). Fathom Dynamic Statistics Software. Emeryville, CA: Key Curriculum Press Technologies. [ Links ]
Garfield, Joan y BenZvi, Dani (2008). "Creating statistical reasoning environments", en J. B. Garfield y D. BenZvi (eds.) Developing Students' Statistical Reasoning, Nueva York: Springer Science+Business Media, pp 91114. [ Links ]
Gordon, Florence y Gordon, Sheldom (1992). "Sampling + simulation = statistical understanding computer graphics simulations of sampling distributions", en F. Gordon y S. Gordon (eds.) Statistics for the TwentyFirst Century. MAA Notes (26). EUA: The Mathematical Association of America. [ Links ]
Inzunsa, Santiago (2007). "Recursos de Internet para apoyo de la investigación y la educación estadística", Revista Iberoamericana de Educación, 41(4). Disponible en. http://www.rieoei.org/experiencias142.htm (consultado: 13 de abril de 2009). [ Links ]
MeletiouMavrotheris, María (2004). "Technological tools in the introductory statistics classroom: Effects on student understanding of Inferential Statistics", Educational Studies in Mathematics, 8 (Netherlands: Kluwer Academic Publishers), pp. 265297. [ Links ]
Mills, Jamie (2002). "Using computer simulation methods to teach statistics: A review of the literature", Journal of Statistics Education 10(1). Disponible en http://www.amstat.org/publications/jse/v [ Links ]
NCTM (2000). Principles and Standards for School Mathematics. Reston, VA: NCTM. [ Links ]
Olivo, Eusebio y Batanero, Carmen (2007). "Un estudio exploratorio de dificultades de comprensión del intervalo de confianza", Revista Iberoamericana de Educación Matemática. 12, pp. 3751. [ Links ]
Pea, Roy (1987). "Cognitive technologies for mathematics education", en A. Schoenfeld (eds.) Cognitive Science and Mathematics Education, Hillsdale, NJ: Erlbaum. [ Links ]
Scheaffer, Richard (1992). "Data, discernment and decisions: An empirical approach to introductory statistics", en F. Gordon y S. Gordon (eds.) Statistics for the TwentyFirst Century. MAA Notes (26) (EUA: Mathematical Association of America), pp. 6982. [ Links ]