Encuentro Colombiano de Educación Estocástica La enseñanza y aprendizaje de la probabilidad y la estadística MEMORIAS - PDF Descargar libre (2024)

Transcripción

1 I Encuentro Colombiano de La enseñanza y aprendizaje de la probabilidad y la estadística MEMORIAS

2 MEMORIAS Editora Luisa Andrade Diseño de logo Benjamín Sarmiento e Ingrith Álvarez Diseño y diagramación de portada y portadillas Ingrith Álvarez, Camilo Sua y Felipe Fernández ISSN: (En línea) Asociación Colombiana de - ACEdEst Autores Septiembre, Se autoriza la reproducción total o parcial de algún artículo, previa cita a la fuente: Andrade, L. (Ed.). (). Memorias del I Encuentro Colombiano de Educación Estocástica. Bogotá, Colombia: Asociación Colombiana de.

3 PRESENTACIÓN Una de las preocupaciones de los educadores e investigadores en Educación Matemática ha sido la necesidad de abrir espacios de discusión y participación para abordar asuntos propios de la (estadística y probabilidad). Es claro que el interés por la educación estadística no es exclusivo de la comunidad de educadores matemáticos, ya que la inquietud por las cuestiones didácticas y por la formación de profesionales y usuarios de la estadística, ha sido una constante de los propios estadísticos; también, en el campo de la psicología las investigaciones sobre el razonamiento estocástico han tenido un gran auge. De allí la importancia de contar con oportunidades de intercambio no sólo para los educadores matemáticos sino para los demás interesados por la educación estocástica. Por lo anterior, en una iniciativa de los profesores integrantes de la línea de investigación en Educación Estadística del Departamento de Matemáticas de la Universidad Pedagógica Nacional, se toma la iniciativa de organizar un evento que posibilite tales espacios. En la formalización del evento se conforma un Comité Organizador que cuenta con el apoyo y colaboración de otras universidades de Bogotá, y que consolida el Encuentro como un evento académico de carácter internacional a desarrollarse con una cierta periodicidad. Así pues, con la realización de este Encuentro se pretende no sólo convocar a profesionales de la educación e investigadores en Educación Matemática, sino también a usuarios de la estadística que laboran en otros contextos profesionales pero que están interesados en la perspectiva educativa de formar ciudadanos alfabetizados y competentes en estadística. Además el Encuentro propende por el intercambio de y difusión de ideas. Las actividades académicas realizadas durante el Encuentro están relacionadas con la enseñanza y el aprendizaje de la estadística y la probabilidad, la formación de profesores en estocástica y de estudiantes, la historia de la estadística y la probabilidad, y el uso de tecnología en la educación estocástica. Comité Organizador Bogotá D.C., Septiembre de

4 ORGANIZACIÓN DEL ENCUENTRO COMITÉ ORGANIZADOR Universidad Pedagógica Nacional Ingrith Álvarez, Felipe Fernández, Camilo Sua, Benjamín Sarmiento Escuela Colombiana de Ingeniería Julio Garavito Carlos Álvarez Universidad Distrital Francisco José de Caldas Pedro Rocha Universidad Nacional de Colombia Pedro Nel Pacheco ENTIDADES PATROCINADORAS ACEDEST Belpapel Ltda. Black Tower Premium Hotel CLAVEMAT CopyCat DCFeria Hotel ENTIDADES AUSPICIADORAS ACOFI Colciencias ICETEX

5 TABLA DE CONTENIDO CONFERENCIAS Y TALLERES DE INVITADOS Blanca Ruíz Relaciones históricas entre las variables aleatoria y estadística y sus repercusiones didácticas José Miguel Contreras Existe la necesidad de evaluación de sesgos probabilísticos en futuros profesores? Silvia Mayén y Carmen Díaz Análisis implicativo que refuerza validez y fiabilidad de un cuestionario de medidas de tendencia central Pedro Arteaga Conocimientos sobre gráficos estadísticos de una muestra de futuros profesores de educación primaria Hugo Alvarado El sentido estadístico de las distribuciones muestrales en los niveles educativos Cileda de Queiroz e Silva Coutinho Letramento estatístico: Qual a contribuição dos livros didácticos? María Soledad Estrella Un imperativo moral: la enseñanza de la estadística no puede dejarse al azar Pedro Rocha Salamanca Caracterización de las prácticas docentes en las facultades de ingeniería de las universidades públicas de Bogotá Silvia Mayén y Ariana Salazar Niveles de razonamiento en la resolución de tareas de tipo binomial Hugo Alvarado y María Lidia Retamal Representaciones de la distribución de probabilidad binomial Cileda de Queiroz e Silva Coutinho Trabalhando probabilidades com Cabri II María Soledad Estrella Construcción de ítems de estadística y probabilidad a la luz de la prueba TIMSS

6 Emilse Gómez, Carmen Batanero y José Miguel Contreras Conocimiento matemático para la enseñanza de la probabilidad en educación primaria Pedro Nel Pacheco Talleres de aprendizaje activo en la enseñanza de estadística Benjamín Sarmiento y Felipe Fernández Combinatoria para la escuela CONFERENCIAS Y TALLERES Wilson Rodríguez, Claudia Daza y Felipe Fernández Del análisis de correspondencias en una investigación. Aplicación e implementación con R Maritza Méndez, Nydia Valero e Ingrith Álvarez Análisis cognitivo en la preparación de un experimento de enseñanza acerca de variables estadísticas y sus escalas de medición Diego Díaz Los cinco problemas más difíciles del cálculo de probabilidades en Guillermo Rincón y Sebastián López Los Bernoulli y sus aportes a la teoría de la probabilidad. El caso de la paradoja de San Petersburgo Edgar Jaimes Por qué involucrar la noción de distribución y variable aleatoria en la enseñanza del concepto de probabilidad? Difariney González Comunidad de práctica: un espacio para la constitución de la identidad del profesor de estadística Miguel Valdivieso y Erica Parra En el parque de diversiones con chicos mareados y dados exóticos. Una introducción a la estadística descriptiva con actividades prácticas y su representación con Geogebra Mauren Porciúncula y Suzi Pinto Proyectos de aprendizaje en la enseñanza de la estadística GRUPOS DE TRABAJO Giovanni Sanabria Formación de profesores en probabilidad VI

7 Giampaolo Orlandoni, Miguel Pérez y Josefa Ramoni Teorema de Bayes y lenguaje matemático Maple. Estimación de la función de densidad posterior COMUNICACIONES BREVES María Magdalena Gea, Emilse Gómez y Gustavo Cañadas Adquisición del sentido de la correlación a partir de recursos virtuales Jacqueline Santos El movimiento del pensamiento probabilístico de los estudiantes de la educación básica Giovanni Sanabria La enseñanza de la probabilidad desde la primaria Liceth Beltrán y William Suárez Una secuencia didáctica para la enseñanza de la noción de variable aleatoria discreta y algunas representaciones en grado 5 William Suárez y Liceth Beltrán Secuencia didáctica para la enseñanza de nociones sobre el teorema de Bayes en grado séptimo Victor Burbano y Margoth Valdivieso Conocimientos del profesor para la enseñanza de la probabilidad en la educación media colombiana Margoth Valdivieso y Victor Burbano Algunos errores sobre conceptos básicos en estadística descriptiva John Restrepo Aportes para la formación de ciudadanos desde la clase de estadística Mónica Vergara, José Alcides Romero y Felipe Fernández Una propuesta de instrucción para abordar el razonamiento probabilístico en situaciones de azar Leidy Mateus Estudio de gráficos estadísticos usados en una muestra de libros de matemáticas para la educación básica y media en Bogotá Beatriz Tapiero y Henry Polanco Desarrollo del razonamiento estadístico a través del trabajo por proyectos VII

8 Johanna Martínez y Gabriel Yañez Efectos de la simulación computacional en la comprensión de la distribución binomial y la distribución de proporciones July Celis y Gabriel Yañez La simulación computacional y la probabilidad condicional Leidy Portilla, Andrés Quintero y Tulia Rivera Estrategias de juego: el caso del Baloto Christian López, Joel Fernando Morera y William Jiménez Concepciones de la probabilidad: reseña histórica Luzdari Rangel y Gabriel Yañez Los intervalos de confianza: confianza vs. precisión Cindy Morgado y Gabriel Yañez Un estudio longitudinal del razonamiento bayesiano con estudiantes de ingeniería Luis Miguel Marrugo Los libros de texto de matemáticas para quinto grado: correspondencia con el desarrollo del razonamiento estadístico María Cristina Kanobel Mapas conceptuales y UVE de Gowin como estrategia para construir conocimiento estocástico en el nivel universitario Juan Pablo Caro y Javier Rodríguez Reporte del desarrollo de una propuesta didáctica para la enseñanza de tablas de contingencia a estudiantes de grado noveno: avances y dificultades Gladys Sánchez Propuesta didáctica para modelar estadísticamente errores de medición en las ciencias naturales, en los grados décimo y once Freney Anturi y Alirio Quesada El diagrama de tallo y hojas como estrategia en la construcción de una distribución de frecuencias para datos agrupados Andrés Triana Lo sociocultural vs. la matemática escolar. Construcción de una secuencia didáctica para la enseñanza de la estadística descriptiva univariada Jorge Zambrano y Rosa Palacios Un modelo para caracterizar el razonamiento estadístico de estudiantes de secundaria al comparar conjuntos de datos representados mediante gráficos de caja VIII

9 Jorge Obando y María Teresa Castellanos Análisis de correspondencia: el caso de la evaluación por competencias POSTERS Pedro Nel Pacheco y Luz Dary Castelblanco Propuesta para superar sesgos y heurísticas en la interpretación de situaciones de probabilidad Alexander Guataquira y Pedro Nel Pacheco Enseñanza de la desviación estándar utilizando el sistema Seis Sigma en grado noveno Henry Correa y Pedro Nel Pacheco La significación del juego justo en eventos equiprobables Diana Parra y Daniel Morán Algunos aspectos cronológicos de la combinatoria IX

10 CONFERENCIAS Y TALLERES DE INVITADOS

11 RELACIONES HISTÓRICAS ENTRE LAS VARIABLES ALEATORIA Y ESTADÍSTICA Y SUS REPERCUSIONES DIDÁCTICAS Blanca Ruiz Tecnológico de Monterrey (México) bruiz@itesm.mx A través de 8 etapas históricas, en Ruiz (2013) se describe el proceso constitutivo de la variable aleatoria. En ellas también se observa el desarrollo histórico de la variable estadística y las vinculaciones entre las experiencias empíricas dadas a través del análisis de datos de variables estadísticas y la teorización en el campo de la probabilidad. Las interacciones entre estos dos ámbitos no respondieron sólo a una necesidad de herramienta matemática en los análisis de datos sino se dieron en ambos sentidos y de diferentes formas que se describen y se ejemplifican en este escrito. A partir de este análisis se estipulan posibles explicaciones y acciones que ayuden al estudio del aprendizaje y la enseñanza de la inferencia estadística y la probabilidad. PALABRAS CLAVE Variable estadística, historia estadística, variable aleatoria, enseñanza estadística. INTRODUCCIÓN Tanto desde la perspectiva estadística como probabilística, muchas investigaciones recientes en educación se han preocupado por manifestar la necesidad de enfatizar en los datos y su vinculación con los modelos probabilistas en la educación escolarizada (entre otros, Wild y Pfannkuch, 1999; Rossman, 2008; Borovcnik, 2011; Burril y Biheler, 2011; Sánchez y Hoyos, 2013). En particular, Pfannkuch (2005) y Greer y Mukhopadhyay (2005), resaltan la conveniencia de tomar en cuenta estudios históricos para fortalecer la enseñanza de la probabilidad y la estadística y guiar la incorporación del análisis de datos en la clase. Greer y Mukhopadhyay, sin asumir un paralelismo entre el desarrollo ontológico y epistémico, rescatan a la historia como una fuente de explicaciones y conocimiento de los obstáculos y dificultades de los estudiantes en el aprendizaje de la probabilidad. Pfannkuch recurre a la historia y a marcos y referencias actuales para proponer una etapa transición (Hacia la inferencia formal, Pfannkuch, 2005, p. 275) entre la enseñanza de la inferencia informal y formal. Sin embargo el devenir histórico de las variables aleatoria y estadística, paralelo a la historia de la probabilidad y la estadística, tiene más de un momento en los que su desarrollo conceptual se vio influenciado mutuamente. La importancia teórica de la variable aleatoria para construir un sistema axiomático coherente, así como su estrecha relación con el contexto del problema, hace que su proceso constitutivo se vincule estrechamente con el surgimiento de la probabilidad como ciencia. Así mismo, la variable estadística está fuertemente vinculada con la emergencia de la estadística como ciencia porque su vinculación formal con la

12 variable aleatoria es un parteaguas para la consolidación de la inferencia estadística. Podemos, entonces, considerar la historia de ambas variables como ejes del surgimiento de la probabilidad y la estadística (Ruiz, 2013). El estudio del devenir histórico de las variables aleatoria y estadística, por lo tanto, puede convertirse en una herramienta cognitiva que proporcione elementos que ayuden a la comprensión del aprendizaje de la inferencia estadística y la probabilidad, a la vez que puede ser fuente de hipótesis para el diseño de actividades y que, a su vez, marque etapas de desarrollo para el aprendizaje de los estudiantes (Brousseau, 1997). Con ese objetivo, en este trabajo se retoma el estudio epistemológico sobre la variable aleatoria desarrollado en Ruiz (2013), para enfatizar en los momentos históricos de contacto entre las variables aleatoria y estadística que contribuyeron al desarrollo de la probabilidad y la estadística como ciencias y aventurar algunas de sus posibles repercusiones didácticas que este tipo de estudios pueden aportar. DOS VÍAS DE DESARROLLO DE UN CONCEPTO La variable aleatoria y su vinculación con la variable estadística han estado presentes en casi toda la historia de la probabilidad y la estadística; sin embargo no fue sino hasta años relativamente recientes cuando se han puesto de manifiesto en forma explícita. En Ruiz (2013) se delimitan ocho etapas históricas del proceso de constitución de la variable aleatoria como objeto matemático. Estas ocho etapas desembocan, por un lado, en la definición formal de la variable aleatoria (y en la formulación de la teoría de la probabilidad), y por otro, en la vinculación explícita de las variables estadística y aleatoria en la inferencia estadística (y el surgimiento de los fundamentos de la teoría estadística). Sin embargo, no se puede afirmar que el desarrollo histórico de las variables aleatoria y estadística haya sido independiente o que su influencia sólo haya sido en una sola dirección. Lighntner (1991) considera que después del trabajo de Moirvre, hubo un periodo de transición entre la probabilidad y la estadística en el que los matemáticos comenzaron a darse cuenta de que muchos conceptos de probabilidad no podían separarse de la estadística y los estadísticos tuvieron que considerar modelos probabilísticos para inferir propiedades de los datos observados (p. 628). A través de las ocho etapas descritas en Ruiz se puede distinguir una relación dialéctica entre ambos tipos de análisis a lo largo de toda su historia. En este escrito no nos concentraremos en la descripción del devenir histórico de la variable aleatoria a lo largo de esas ocho etapas, únicamente analizaremos las interacciones que se dan a través de esas etapas (Figura 1) y las ilustramos a través de algunos ejemplos históricos. A. Análisis de los datos en los juegos de azar Desde sus inicios, la definición de la probabilidad a partir del espacio muestral tuvo fuertes motivaciones en la observación del comportamiento de la tirada de tres dados: el Duque de Toscana (Perero, 1994) y Fournival (Bellhouse, 2000), como grandes jugadores, estuvieron interesados en explicaciones teóricas a su experiencia empírica que les proporcionara conocimiento para realizar mejores apuestas. El caso más conocido en nuestros días es el del Duque de Toscana, quien había observado que en el lanzamiento de 3 dados, la suma de las caras superiores daba 9 con menos 2

13 frecuencia que 10 y eso no concordaba con un modelo teórico que sostenía que el número de formas posibles para que la suma de los puntos de las caras superiores de los tres dados diera 9 (1+2+6, 1+3+5, 1+4+4, 2+2+5, 2+3+4, 3+3+3), era el mismo que para que diera 10 (1+3+6, 1+4+5, 2+2+6, 2+3+5, 2+4+4, 3+3+4). El problema fue resuelto por Galileo (1718, citado en Perero, 1994) quien, tomando en cuenta el orden de los dados, enumeró el espacio muestral completo, obteniendo 25 casos teóricos favorables para 9 y 12 y 27 para 10 y 11. Fournival (citado en Bellhause, 2000) había encontrado la misma solución alrededor de 4 siglos antes. No existe evidencia de los registros de los jugadores o de un análisis de sus resultados, sin embargo, el conocimiento de la diferencia entre la frecuencia de aparición de uno y otro resultado no pudo surgir sin el recuento y análisis de datos. Hay que tomar en cuenta que la cardinalidad del espacio muestral completo es 216 (y 52 si sólo tomamos en cuenta las posibilidades de que alguien salga ganador), así que la diferencia entre la probabilidad de que la suma fuera 9 y 10 es extremadamente pequeña como para que pudiera ser notada por simple observación. Esto significa que una discordancia entre el comportamiento observado (empírico) en los juegos de azar y un modelo teórico errático, propició la generación de elementos teóricos probabilísticos. Implícitamente, a partir de un análisis de la variable estadística se estimuló un modelo teórico que daría lugar al análisis de una variable aleatoria (la suma de la cara de tres dados). Figura 1. Etapas del desarrollo histórico de la variable aleatoria y sus interacciones con la variable estadística 3

14 B. Uso de herramientas probabilísticas en diversos contextos Una de las vinculaciones más fuertes entre la variable aleatoria y la estadística se dio en el periodo comprendido entre la segunda mitad del siglo XVII hasta el primer tercio del siglo XVII. La recolección de datos demográficos fue una actividad que se comenzó desde tiempos inmemoriales. En el siglo XVII la cantidad de datos recopilados era muy grande, lo que despertó el interés de aplicar los resultados teóricos surgidos en la probabilidad haciendo que los intuitivos análisis de datos pudieran ser más complejos. Uno de los primeros trabajos que se conoce en el que la probabilidad y el registro estadístico de datos fueron aplicados al análisis de fenómenos distintos a los juegos de azar, es el ensayo An argument for divine providence, taken from the constant regularity observed in the births of both sexes, publicado por John Arbuthnott en En él, Arbuthnott, influenciado por los trabajos de Fermat, Pascal y Huygens, aplicó la relación binomial al estudio de la proporción que debería haber entre los sexos de los pájaros que nacen en una nidada. Supuso que la población de pájaros debería estar constituida por igual número de machos que de hembras (p=½) y calculó teóricamente el número de machos (M) y hembras (F) posibles procreados en un nido con un número n de huevos, mediante la ley Binomial (M+F) n. Sus resultados indicaron que se esperaría que el número de aves machos y hembras que nacieran en el nido fuera el mismo independientemente del número de huevos que hubiera en el nido. Sin embargo, su experiencia como observador de aves le indicaba que había un mayor número de aves machos que hembras y por lo tanto concluyó que en ese contexto no se cumplía la distribución propuesta por Pascal. Siguiendo el mismo método, Arbuthnott se enfocó en la distribución de sexos en los seres humanos y la comparó con los resultados obtenidos en los registros de bautismos realizados en Inglaterra entre 1629 y Los registros indicaron que el número de niños nacidos fue superior al número de niñas en una proporción constante. Concluyó que la proporción no igualitaria existente entre el número de niños y de niñas que nacen cada año en Inglaterra no estaba gobernada por el modelo ideal de la probabilidad atribuible al azar y que esa proporción entre los dos sexos, estaba regida por el misterioso arte de la Divina Providencia que escapaba a la comprensión del intelecto humano. Los estudios de Arbuthnott, sin embargo, pusieron en duda que el modelo clásico de la probabilidad rigiera todos los fenómenos de la naturaleza. Trabajando con un problema muy distinto, Galileo Galilei también se ocupó del recuento de datos y del análisis de una variable estadística continua (Hald, 1986). Desde la época de la Revolución Copernicana, los astrónomos organizaban los registros de las observaciones del movimiento de los planetas. Galileo concentró su atención en los diferentes valores que se obtienen al realizar varias veces la misma medida para encontrar la distancia de una estrella a la tierra de manera indirecta. Analizó las propiedades de los errores observados (aleatorios) y encontró que son más frecuentes los errores pequeños que los grandes, que los errores por exceso son tan frecuentes como los errores por defecto y que la mayoría de las mediciones se agrupan alrededor del valor medio. Además definió una única distancia verdadera y observaciones sujetas a variaciones, con lo cual comenzó a diferenciar el estadístico 4

15 del parámetro. En estos análisis, Galileo manejó implícitamente variables aleatorias y estadísticas y sus distribuciones (aunque nunca las mencionó como tales), pero sobretodo con el actual concepto de varianza el cuadrado medio del error. Los errores eran una variable aleatoria de distribución desconocida y usó a la variable estadística para aproximarse a ella. Actualmente sabemos que esa distribución a la que Galileo se aproximó es la normal estándar. Otro de los recuentos de datos demográficos que favoreció la vinculación entre las variables fue el que se realizó en Breslau (Halley, 1693). En esta Ciudad se llevaba el recuento de las defunciones y nacimientos con mucha regularidad y minuciosidad. Alrededor de 1690 el registro había sido llevado por más de un siglo y Gaspar Neumann se interesó por ellos. Él demostró que había ciertas edades (en la infancia y en la ancianidad) en las que el ser humano estaba más susceptible de morir. Los datos de Breslau fueron conocidos por Edmund Halley gracias al trabajo de Neumann y los aplicó en el estudio de la vida humana. Hizo un exhaustivo análisis de las tasas de mortalidad y calculó las posibilidades que tiene una persona de morir a una cierta edad para regular el precio de los seguros de vida. Sus cálculos fueron la base de los trabajos de esperanza de vida y los índices de mortalidad que hoy utilizan muchas de las compañías de seguros. Halley empleó los razonamientos estadísticos descubiertos hasta entonces para estudiar datos poblacionales y sociales y los hizo progresar hacia nuevas herramientas de análisis. También se percató de la valía de los grandes números, al mencionar que de tener un mayor número de datos, el cálculo sería más confiable. Otros grandes matemáticos, como Daniel Bernoulli, se enfocaron al estudio de fenómenos sociales y económicos basándose en datos empíricos. En su obra (Bernoulli, 1954/1738) afirmó que un comerciante racional siempre debe actuar motivado por obtener la máxima utilidad posible, la cual puede ser calculada mediante procedimientos matemáticos y debe calcular cuál es el riesgo que existe para alcanzar ese premio (la utilidad), y la manera cómo ese riesgo incide económicamente en la expectativa de ganancia. De este modo Daniel Bernoulli inició la econometría. Daniel Bernoulli también se ocupó de aplicar estos modelos a la teoría de juegos y a rectificar sus teorías a través de la recopilación de datos (Perero, 1994). Estas interacciones entre la teoría generada y los datos dieron lugar a la generación de nuevo conocimiento teórico, como en el trabajo de Galileo, Halley y Daniel Bernoulli, aunque también se puede apreciar un cuestionamiento sobre la correspondencia entre los modelos teóricos y la realidad (los datos) en los trabajos de Arbuthnott. C. Retomando los resultados de los análisis de datos A finales del siglo XVII los resultados obtenidos en el análisis de datos suscitó el interés por la generalización de la herramienta obtenida a partir de problemas particulares. El desarrollo progresivo del cálculo y análisis matemático influyó fuertemente en la teoría probabilista porque permitió el uso de herramientas matemáticas más sofisticadas, para explicar y generalizar los resultados obtenidos en los análisis de datos. Por ejemplo, Jacob Bernoulli (Bernoulli, 2006/1713) concibió la probabilidad como el grado de certeza (conocimiento) que los seres humanos pueden tener de los 5

16 acontecimientos y deslinda su asignación, que, afirma, puede hacerse de dos formas: a través del conteo de los casos posibles y totales en el espacio muestral (la actual probabilidad laplaciana) y a través de la observación múltiple de los resultados de pruebas similares (la actual probabilidad frecuencial). Intuitivamente, Bernoulli sabía que las frecuencias relativas tendrían que converger a la auténtica probabilidad y creyó que podría estimarla con un grado de precisión deseado al determinar el número de pruebas necesarias para garantizar esa precisión. Estos intentos fueron los que lo condujeron a la formulación de lo que actualmente conocemos como la ley débil de los grandes números o teorema de Bernoulli. De Moivre, Lagrange, Gauss y Laplace ampliaron y demostraron teóricamente los resultados obtenidos por Galileo a partir del análisis de los datos astronómicos sobre la forma en que se agrupan los datos alrededor de la media en la distribución normal estándar. Encontraron la fórmula de esta distribución, el método de mínimos cuadrados para la estimación de parámetros a partir de los datos y analizaron el uso de la media y la desviación estándar en esta distribución. De Moivre (1756) también profundizó teóricamente en la probabilidad frecuentista y su relación con un modelo teórico ideal. Se dio cuenta que la igualdad entre la frecuencia relativa y la probabilidad no podría ser posible y que más bien se debería medir (aplicar momios) a la variación de la igualdad. Esto lo condujo a la formulación de la ley fuerte de los grandes números. De Moivre también generalizó algunos métodos de cálculo que surgieron a partir de la solución de problemas particulares, con lo que profundizó en las distribuciones hipergeométrica, binomial negativa y de Poisson. A mediados de la segunda década del siglo XIX, Laplace (1812) ya había formulado su Teoría Analítica de las probabilidades que sentó las bases de la Probabilidad como ciencia. El avance teórico logrado fue muy grande. En su libro ya hay un manejo explícito de la variable aleatoria continua, de la probabilidad como un diferencial y de las funciones de densidad, aunque no se definen como tales. Además de que hay una distinción más clara entre lo que es el cálculo de las probabilidades y la probabilidad misma. También se establecieron los primeros teoremas del límite central para condiciones particulares y se hicieron explícitas las condiciones de independencia. Todo esto habría paso al manejo de las distribuciones muestrales y, por tanto, se inició la vinculación formal entre las variables aleatoria y estadística en el muestreo. D. Un momento de reflexión para los probabilistas La quinta etapa en Ruiz (2013), se caracteriza por un alejamiento de los análisis de datos y una concentración en la demostración de teoría, en particular del teorema del límite central y de modelos de distribuciones, sin que ello significara que en ella no se ocuparon de la relación entre los datos y la teoría. Poisson, Tchebychef, Markov, Liapounoff y Lévy contribuyeron a la formulación del teorema del límite central, lo que condujo al planteamiento de las distribuciones muestrales. Así mismo se diferenció un tratamiento matemático explícitamente distinto para la variable aleatoria continua y la discreta. En esta etapa, el principal motor para el desarrollo de la variable aleatoria fue establecer una variable de carácter matemático en la función de densidad, para el problema de la continuidad y de dependencia que se presentaba en diversos contextos reales. Así, aunque en los trabajos no reportan análisis de datos, 6

17 hay una preocupación por la demostración de teoría que aportaría sustento al posterior análisis de los datos. E. La distribución normal y el análisis de datos En la segunda mitad del siglo XIX y principios del XX, los resultados teóricos de los probabilistas, principalmente alrededor de la distribución normal y los análisis realizados por Gauss para la distribución de los errores de las medidas astronómicas, comenzaron a ser usados ampliamente en diversas disciplinas con fines de análisis de datos en situaciones de incertidumbre. En esos estudios se relacionaron explícitamente las variables estadísticas y las aleatorias haciendo surgir métodos apropiados para estimar los valores de los parámetros que definen las familias de distribuciones de las variables aleatorias a partir de métodos estadísticos basados en el acopio y análisis de datos empíricos. Entre otros, destacan los trabajos de Quetelet y Galton sobre la caracterización del hombre medio. Quetelet se preocupó por caracterizar al hombre medio a través de las medidas de centralización y variación de diversas variables de grandes colecciones de datos. Se sustentó principalmente en inferencias informales haciendo uso de la media y la variación alrededor de la media. Se percató de que sus datos se comportaban de forma similar a los descritos por Gauss y supuso que las variables vinculadas con el hombre medio se distribuían como una normal. Defendió la necesidad de grandes cantidades de datos como la forma de acercarse a la verdad (distribución teórica) y también promovió la recolección cuidadosa de datos porque se dio cuenta que no toda colección de datos podía proporcionar información para inferir las características del sobre el hombre medio en general. Los trabajos de Quetelet contribuyeron a que Galton (1989) delimitara las poblaciones sobre las que hizo sus inferencias y a caracterizar los atributos de la población por su distribución más que por su media. Galton presentó la distribución de las variables estadísticas en gráficos muy similares a los actuales histogramas (usados por Gauss) y ojivas (dibujados no sólo con líneas sino también con barras). Así mismo trabajó con tablas de frecuencias acumuladas en las que definió intervalos de clase para las variables continuas. Él ya denominaba distribución a la forma en cómo se comportaba los datos de una característica de una población. También se sospecha que el término normal para ésta distribución proviene del uso que entonces se le dio en el análisis de datos. Ni Galton ni Quelet eran matemáticos, hicieron uso de la herramienta matemática que les daba mayor oportunidad de interpretación. Así por ejemplo, Galton (1989) prefería la mediana sobre la media, comparaba el comportamiento de una variable de diferentes poblaciones a través de percentiles y ojivas y optaba por medir la variación a través del promedio del valor absoluto de las diferencias de los datos con la mediana. Sin embargo, hizo aportaciones muy notables, por ejemplo, propuso una estandarización de los valores de las variables de modo que los percentiles de las variables correspondientes a una misma población pudieran ser comparables entre sí; pidió ayuda al matemático W. F. Sheppard para elaborar las primeras tablas de la N(0,1) y con ellas y su estandarización, corroboró que sus variables se comportaban como una distribución normal. Es decir, sentó las bases para el estudio de la variable estadística y su distribución a través del estudio de la normal. Sus estudios sobre la 7

18 relación entre características entre padres e hijos también lo hicieron pionero en el estudio de la estimación de los componentes de la variación atribuibles a causas identificables y de la regresión. Los trabajos de Quetelet y Galton marcaron la recolección de datos como una fase muy importante para el análisis estadístico. También recalcaran la importancia del estudio de la variable estadística a través del análisis de su distribución y sentaron las bases para su análisis. Estos análisis son semejantes a lo que actualmente se propone en didáctica de la estadística como inferencia informal (Rossman, 2008). F. Hacia una vinculación formal de las variables aleatoria y estadística Casi de manera simultánea a la formalización de la probabilidad, también la estadística comenzó con tal proceso. Karl Pearson se ocupó de fundamentar, perfeccionar y ampliar los métodos de análisis de Galton, lo que lo llevó a la generación de objetos matemáticos propios de la estadística. Estableció un puente entre las ideas de Galton y resultados probabilísticos y matemáticos de la época, favoreciendo la formalización de la inferencia estadística, así como la vinculación formal entre la variable aleatoria y estadística. Dentro de sus aciertos no solo estuvo su formación matemática, que le permitió comprender los modernos resultados recientes en probabilidad y matemáticas, sino también se interesó por aplicarlos a diversas áreas de la ciencia. Pearson comenzó a manejar distribuciones empíricas distintas a la normal y se proveyó de una serie de herramientas estadísticas matemáticas para examinar las gráficas de las distribuciones empíricas basándose en el método de momentos, como la variación (a través de la desviación estándar), el sesgo y la curtosis (Magnello, 2009). Retomó el método de momentos ideado por Tchebychef y estimó los momentos poblacionales a partir de los muestrales. También aplicó el método de mínimos cuadrados, ideado por Gauss, y encontró mejores estimadores para los conceptos propuestos por Galton sobre la regresión. Sin embargo, su mayor contribución devino a partir de su preocupación por evaluar la validez de los modelos teóricos encontrados con su metodología a partir de los datos, que lo condujeron a la formulación de la distribución χ 2 y la prueba de bondad de ajuste de un modelo teórico sobre los datos en donde estaba el germen de lo que posteriormente serían las pruebas de hipótesis (Pearson y Kendall, 1970). También en esa época, siguiendo el desarrollo del teorema del límite central y el desarrollo teórico de la estadística surgió el concepto de distribución muestral o distribución del estadístico. El método de determinar la probabilidad de que la media de la población esté dentro de una distancia de la media suponiendo normalidad y con una desviación estándar calculada como s/ n, se hizo muy popular. También, en contraposición a la investigación exhaustiva, se comenzó a defender el muestreo aleatorio y el viejo problema estudiado por Jacob Bernoulli sobre la cantidad necesaria de datos para tener estimaciones confiables volvió a surgir. La discusión alrededor del problema de representatividad de una muestra favoreció la emergencia de métodos de análisis de las variables estadísticas en los que se tomó en cuenta el tamaño de la muestra y la forma en la que se recolectaban los datos. Gosset dedujo la distribución t para ambientes en los que no es posible la obtención de grandes 8

19 cantidades de datos. Esto conduce a una mejor deducción de la variable aleatoria a partir de la estadística en pequeñas muestras. Los trabajos posteriores de Ronald Fisher, Jerzy Neyman y Ergon Pearson terminaron por sentar los fundamentos de la actual inferencia estadística paramétrica. Así, a principios del siglo XX, las herramientas estadísticas para el tratamiento de los datos y, por tanto, de la variable estadística, se multiplicaron propiciando que el análisis de datos tuviera mayores fundamentos y fuera más rico. El concepto de distribución muestral del estadístico adquiere una mayor importancia dentro de la estadística matemática y fomentó el interés por estudiar las distribuciones de las operaciones con variables aleatorias. Esto condujo, progresivamente, al desarrollo de las teorías estadísticas con las que convivimos actualmente y a relacionar de manera explícita las variables estadísticas (en las muestras tomadas de poblaciones) con las variables aleatorias, que definen las poblaciones cuyas características se quiere estimar. CONCLUSIONES A lo largo de las ocho etapas históricas, se observaron las distintas formas en cómo las dos formas de pensamiento se entrecruzaron y retroalimentaron mutuamente en diferentes formas, dentro de las cuales se encuentran: Confrontaciones entre resultados obtenidos de manera empírica que no concuerdan con modelos teóricos. La evidencia empírica estimuló la generación de teoría, lo que propició el estudio teórico de variables numéricas. Esto puede observarse en los análisis del Duque de Toscana y los trabajos de Arbuthnott. Análisis de datos que buscaban deducir el comportamiento de la variable aleatoria a partir de la estadística lo que propició nuevas teorías tendientes a la vinculación entre la variable aleatoria y la estadística. Esto puede observarse en particular en los trabajos de Halley, Galileo y Daniel Bernoulli con distintas bases de datos. Análisis teóricos que justifican resultados surgidos a partir del análisis de datos y que amplían el estudio de la variable aleatoria, como los realizados por de Moivre, Lagrange, Gauss y Laplace alrededor de la distribución normal, su media y su varianza. Análisis teóricos que buscaron concordancia entre la variable estadística y la variable aleatoria. No hay un análisis de datos propiamente, sino estudios teóricos a través de los cuales se genera nueva teoría que favorece la vinculación entre la variable aleatoria y la estadística, pero cuya motivación está en un interés práctico. Ejemplos de ello son los estudios de Bernoulli y de Moivre alrededor de la convergencia de la probabilidad frecuencial, así como los de Poisson, Tchevychev, Markov, Liapounoff y Lévy alrededor del teorema del límite central y la continuidad. También está la propuesta del manejo de la distribución t de Student para pequeñas muestras. Uso de resultados probabilísticos que favorecieron el análisis de datos, lo que fortaleció el análisis de la variable estadística. Destacan los trabajos de Quetelet y Galton haciendo uso de la distribución normal. Teoría probabilística que ayudó a la formalización de ideas que surgieron en análisis de datos en contextos prácticos. Pearson estableció un puente entre las ideas de 9

20 Galton y resultados probabilísticos y matemáticos, favoreciendo la formalización de la inferencia estadística, así como la vinculación formal entre la variable aleatoria y estadística. Las dos vías de pensamiento también tuvieron largos periodos de reflexión propia, a través de los cuáles la interacción entre ellas fue casi nula. El desarrollo de la teoría de Laplace o la larga discusión que dio lugar a la comprobación del teorema central del límite (que tendría, sin embargo, una fuerte repercusión en la estadística) son momentos en los que la deducción teórica prevalece sobre el análisis de datos. Así mismo, en el análisis de grandes recuentos de datos a través de elementos meramente descriptivos, y sin embargo, con fines inferenciales, permaneció mucho tiempo sin la influencia de herramienta teórica que permitiera análisis más potentes. Este proceso dialéctico permitió momentos de crecimiento en estas dos corrientes de pensamiento hasta conformarlas autónomamente nutriéndose de sus análisis y resultados, pero también con momentos de reflexión propia, mediante las cuales se establecieron formas de razonamiento autónomas que los conformaron como ciencias independientes, cuyo sustento en gran parte pende de la conceptualización de las variables aleatoria y estadística. REPERCUSIONES DIDÁCTICAS Si bien es cierto que un estudio histórico es fuente de ejemplos de problemas a través de los cuáles surgió la herramienta estadística, también proporciona elementos de índole epistemológica que pueden servir de sustento para mejorar nuestra práctica. En la enseñanza escolarizada tradicionalmente la vinculación entre la probabilidad y la estadística se ha dejado a cargo de la inferencia estadística formal. Burril y Biehler (2011) describen una concepción muy difundida en los currículos escolares en la cual se distinguen dos estadísticas, una sin probabilidad (estadística descriptiva y análisis exploratorio de datos) y otra con probabilidad (inferencia estadística). En su mayoría, los currículos universitarios, introducen esta última únicamente después de haber enseñado probabilidad y funciones de probabilidad más o menos formalmente. Se piensa que el ámbito de la probabilidad y la estadística (en particular la inferencial) se mantuvieron separados por muchos años (Pfannkuch, 2005) y que la inferencia sólo pudo surgir después de que la herramienta teórica probabilística y matemática lo permitió. Sin embargo, en este estudio histórico salta a la vista que el crecimiento de la probabilidad y estadística en gran parte fue debido a la interacción que se dio entre los datos y la teoría en diversos momentos y bajo una diversidad de formas. Además muestra que el estudio de la variable aleatoria no es exclusivo de la probabilidad, sino también de la estadística, puesto que las dos vías de surgimiento de este concepto, fueron las que dieron lugar a mayores aplicaciones de él. Así, es recomendable una enseñanza en constante contacto entre la teoría y los datos en diversos momentos del currículo, que quizá podrían coincidir con los momentos históricos en los que se dieron, mediando los lapsos de tiempo y enfatizando en las distintas formas en que ambas ciencias se retroalimentaron. Esto favorecería no enseñar una probabilidad libre de datos ni un análisis de datos libre de modelos, como alertan Burril y Biehler (2011). 10

21 Así mismo pudimos observar que si bien fue necesaria la intervención de matemáticos para constituir objetos teóricos y fundamentar mejores análisis, los primeros análisis de personas no doctas en esa área, como Quetelet y Galton o personas interesadas en el análisis de datos, como el duque de Toscana o Arbounouth, fueron los que favorecieron la forma de pensamiento inferencial. En este sentido la matemática fungió como herramienta para fundamentar una forma de pensamiento que, de alguna forma general, ya estaba establecido. También es cierto, sin embargo, que a partir de esta matematización, el pensamiento inferencial pudo evolucionar generando nuevas formas de análisis. Cuestiones que valdría la pena tomar en cuenta en el currículo escolar. REFERENCIAS Bellhouse, D.R. (2000). De Vetula: a medieval manuscript containing probability calculations. International Statistical Review, 68 (2), Bernoulli, D. (1954). Exposition of a new theory on the measurement of risk. Econometrica, 22 (1), (Trabajo original publicado en 1738). Bernoulli, J. (2006). Ars Conjectandi. (Libro original publicado en 1713 en Basilea). Borovcnick, M. (2011). Strengthening the role of probability within statistics curricula. En C. Batanero, G. Burrill y C. Reading (Eds.), Teaching statistics in school mathematics. Challenges for teaching and teacher education. A joint ICMI and IASE study (pp ). New York: Springer. Brousseau, G. (1997). Theory of didactical situations in mathematics. Didactique des mathématiques, Dordrecht, The Netherlands: Kluwer Academic Publishers. Burril, G. y Bielher, R. (2011). Fundamental statistical ideas in the school curriculum and in training teachers. En C. Batanero, G. Burril y C. Reading (Eds.), Teaching statistics in school mathematics. Challenges for teaching and teacher education. A joint ICMI and IASE study (pp ). New York: Springer. Galton, F. (1889). Natural inheritance. London: MacMillan. Greer, B. y Mukhopadhyay, S. (2005). Teaching and learning the mathematization of uncertaninty: Historical, cultural, social and political contexts. En G.A. Jones (Ed.), Exploring probability in school: Challenges for teaching and learning (pp ). New York: Springer. Hald, A. (1986). Galileo s statistical analysis of astronomical observations. International Statistical Review, 54 (2), Halley, E. (1693). An estimate of the degrees of the mortality of mankind, drawn from curious tables of the births and funerals at the city of Breslaw; with an attempt to ascertain the price of annuities upon lives. Philosophical Transactions of the Royal Society of London, 17 (1), Laplace, P.S. (1812). Théorie analytique des probabilités. París: Gauthier-Villars. Lightner, J. (1991). A brief look at the history of probability and statistics. Mathematics Teacher, 84 (8), Magnello, E. (2009). Introducing statistics. A graphic guide. London: Icon Books, Limited. Moivre, A., de (1756). The doctrine of chances or a method of calculating the probability of events in play, 3rd edition. London: A. Millar. Pearson, E.S. y Kendall, M. (1970). (Eds). Studies in the history of statistics and probability. London: Charles Griffin. Perero, M. (1994). Historias e historia de las matemáticas. México: Grupo Editorial Iberoamérica. 11

22 Pfannkuch, M. (2005). Probability and statistical inference: How can teachers enable learners to make the connection? En G.A. Jones (Ed.), Exploring probability in school: Challenges for teaching and learning (pp ). New York: Springer. Rossman, A. (2008). Reasoning about informal statistical inference: One statistician's view. Statistics Education Research Journal, 7 (2), Ruiz, B. (2013). Análisis epistemológico de la variable aleatoria y comprensión de objetos matemáticos relacionados por estudiantes universitarios. Tesis de doctorado. Granada: Universidad de Granada. Sánchez, E. y Hoyos, V. (2013). La estadística y la propuesta de un currículo por competencias. En A. Salcedo (Ed.), Educación Estadística en América Latina: Tendencias y Perspectivas (pp ). Caracas: Universidad Central de Venezuela. Wild, C. y Pfannkuch, M. (1999). Statistical thinking in empirical enquiry. International Statistical Review, 67 (3),

23 EXISTE LA NECESIDAD DE EVALUACIÓN DE SESGOS PROBABILÍSTICOS EN FUTUROS PROFESORES? José Miguel Contreras Universidad de Granada (España) La existencia de sesgos probabilísticos es un problema ampliamente extendido en la sociedad, llegado a considerarse hasta cotidiano. Estos razonamientos incorrectos deben ser conocidos por los formadores para, a parte de superarlos ellos mismos, evaluarlos en sus alumnos. El problema se agrava cuando estos errores llegan al punto de influir en el futuro académico del estudiante, ya no solo porque el alumno cometa estos sesgos, sino porque sea la institución que pretende evaluar al estudiante la que los comete. Este trabajo evalúa a estudiantes ante un problema de una prueba de acceso a la universidad para mayores de 25 años. El estudio compara los resultados de la muestra principal (alumnos de 4º y 5º de la licenciatura de matemáticas) con dos muestras de alumnos de primer año, que no cursaron aún docencia en probabilidad, y que poseen unos conocimientos probabilísticos adquiridos en su etapa preuniversitaria. PALABRAS CLAVE Probabilidad, probabilidad condicional, sesgos, evaluación. INTRODUCCIÓN La probabilidad, y la probabilidad condicional en particular, es una de las concepciones que más puede afectar la toma de decisiones en la vida cotidiana y por desgracia es común encontrar una variedad de errores de razonamiento, que pueden llevar a decisiones incorrectas. El problema es necesario que se trate desde la base y por tanto debe de ser el profesor que imparte este tema el que debiera ser capaz de reconocer estos sesgos en sus estudiantes, ayudarles a superarlos y prepararlos para la correcta toma de decisiones en su vida personal y profesional. Pero, como indica Stohl (2005), es posible que los mismos profesores tengan estos razonamientos erróneos, pudiendo repercutir en los conocimientos que adquieran sus futuros estudiantes. Esto es debido a que es todavía poco frecuente que los futuros profesores de matemáticas tengan una preparación específica suficiente para llevar a cabo su enseñanza. La probabilidad es, en la actualidad, una parte importante de las orientaciones curriculares para la educación primaria, secundaria y bachillerato. Sin embargo, aunque muchos futuros profesores de educación secundaria y bachillerato tienen una licenciatura en matemáticas, la mayoría de ellos no recibe formación específica sobre el conocimiento didáctico relacionado con la enseñanza de probabilidad. La situación

24 es aún más crítica para los futuros profesores de educación primaria, puesto que algunos ni siquiera han seguido un curso completo de probabilidad durante su formación como maestros. Esto puede provocar en algunos casos concepciones incorrectas sobre las ideas de azar y probabilidad (Azcárate, 1995) y en otras lleva a los profesores, una vez incorporados a su labor docente, a tratar de reducir o incluso omitir la enseñanza de la probabilidad (Serradó, Azcárate y Cardeñoso, 2006). Es urgente ofrecer una mejor educación previa a estos profesores, si queremos que la enseñanza de la probabilidad en las escuelas mejore (Franklin y Mewborn, 2006), pero ello requiere un trabajo previo de evaluación de sus necesidades formativas. En este trabajo analizamos las dificultades ante un problema, que fue incluido en una prueba de acceso a la universidad para mayores de 25 años en una muestra de futuros profesores españoles de educación secundaria, otra de futuros profesores de educación primaria y una tercera de alumnos del grado de biología. Se comparan los resultados de la muestra principal (alumnos de 4º y 5º y agregados de la licenciatura de matemáticas) con dos muestras de alumnos de primer año, que no cursaron aún docencia en probabilidad, y que poseen unos conocimientos probabilísticos adquiridos es su etapa de secundaria y bachillerato. INVESTIGACIONES PREVIAS Los profesores de matemáticas de educación secundaria y bachillerato son mayoritariamente licenciados en matemáticas y estudiaron uno o más cursos de estadística en su etapa universitaria. Pero, en general, la formación que tuvieron fue teórica y no tienen experiencia con estudios de estadística aplicada, muestreo, o diseño de experimentos (Franklin y Mewborn, 2006). Generalmente, en pocos casos los profesores tienen formación específica en didáctica de la estadística, pues, aunque en España todos realizaron el Curso de aptitud pedagógica o el Master de formación del profesorado de educación secundaria, donde realizaron cursos de didáctica de la matemática, los principios generales que son válidos para otras áreas de las matemáticas no siempre pueden ser aplicados a la estadística (Batanero, Godino y Roa, 2004). La situación de los maestros de primaria respecto a la probabilidad, y no digamos ya la probabilidad condicionada, es preocupante, debido generalmente a la poca formación recibida en el campo de la probabilidad, pues hasta hace poco ni siquiera se incluía en el currículo de educación primaria. Algunos estudios hacen referencia a la desigualdad de predilección por la enseñanza de conocimientos probabilísticos por parte de los dos grupos de profesores. Por ejemplo Watson (2001) y Pereira-Mendoza (2002), que evaluaron profesores de primaria y secundaria, indican que los profesores de secundaria tienen un nivel de seguridad significativamente más alto que los de primaria a la hora de enseñar conceptos básicos de probabilidad. La mayoría de las investigaciones en este campo están relacionadas con la comprensión conceptual. Por ejemplo la de Maury (1986), en el mismo sentido que la de Totohasina (1992), que analizó la comprensión intuitiva de la probabilidad condicional en contexto de extracción de bolas en urnas y otro de ruletas, indica que 14

Mostrar más

Encuentro Colombiano de Educación Estocástica La enseñanza y aprendizaje de la probabilidad y la estadística MEMORIAS - PDF Descargar libre (2024)
Top Articles
Latest Posts
Article information

Author: Arielle Torp

Last Updated:

Views: 6398

Rating: 4 / 5 (41 voted)

Reviews: 80% of readers found this page helpful

Author information

Name: Arielle Torp

Birthday: 1997-09-20

Address: 87313 Erdman Vista, North Dustinborough, WA 37563

Phone: +97216742823598

Job: Central Technology Officer

Hobby: Taekwondo, Macrame, Foreign language learning, Kite flying, Cooking, Skiing, Computer programming

Introduction: My name is Arielle Torp, I am a comfortable, kind, zealous, lovely, jolly, colorful, adventurous person who loves writing and wants to share my knowledge and understanding with you.