Del análisis de datos a la inferencia: Reflexiones sobre la formación del razonamiento estadístico



Resumen

La inferencia estadística es uno de los temas más enseñados, a la vez, peor comprendido y aplicado a nivel universitario. Recientemente se incluyen contenidos de inferencia en el Bachillerato, e incluso la enseñanza secundaria en algunos países, surgiendo la necesidad de encontrar una transposición didáctica de estos temas asequible a los alumnos no universitarios. En esta conferencia se resumen algunas de las dificultades frecuentes de comprensión de la inferencia clásica, sugiriendo la importancia de educar el razonamiento estadístico en forma progresiva, antes de abordar el estudio formal de la inferencia. Se describen, asimismo, algunas aproximaciones alternativas a la enseñanza de la inferencia que pueden contribuir a la educación de este razonamiento, preparando al estudiante para una mejor comprensión y aplicación de la inferencia en la universidad y trabajo futuro.

Palabras clave: inferencia estadística, dificultades, enfoques alternativos, enseñanza no universitaria.

Según Hacking (1990), uno de los descubrimientos decisivos del siglo XX fue la constatación de que el mundo no es determinista. No sorprende, por tanto, que la inferencia estadística sea uno de los temas más enseñados en la universidad, al ser una herramienta fundamental en la política y administración y en la investigación en todas las áreas de conocimiento, pues permite interpretar la información, obtener predicciones y conclusiones y tomar decisiones adecuadas.

Por otro lado, en los últimos años observamos una tendencia creciente a incluir contenidos de inferencia estadística en el currículo de matemáticas de los últimos años de la escuela secundaria y Bachillerato. Por ejemplo, los estándares americanos NCTM (2000) sugieren que los estudiantes en los grados 6-8 deben usar las observaciones sobre las diferencias entre dos o más muestras para hacer conjeturas sobre las poblaciones correspondientes. En los grados 9-12 la simulación se debe usar para explorar la variabilidad de los estadísticos muestrales (como la media) y comenzar a comprender lo que es la distribución muestral. En España la especialidad en Ciencias Sociales del Bachillerato (MEC, 2007) incluye en el segundo año (alumnos de 17-18 años), los siguientes contenidos:

Implicaciones prácticas de los teoremas: Central del límite, de aproximación de la binomial a la normal y Ley de los grandes números.

Problemas relacionados con la elección de las muestras. Condiciones de representatividad. Parámetros de una población. Distribuciones de probabilidad de las medias y proporciones muestrales.

Intervalo de confianza para el parámetro p de una distribución binomial y para la media de una distribución normal de desviación típica conocida.

Contraste de hipótesis para la proporción de una distribución binomial y para la media o diferencias de medias de distribuciones normales con desviación típica conocida.

Estas directrices plantean un desafío didáctico, pues la investigación nos alerta que muchos estudiantes, incluso a nivel universitario, tienen concepciones que les impiden hacer una adecuada interpretación de los resultados proporcionados por la inferencia estadística (Vallecillos, 1999; Batanero, 2000; Castro, Vanhoof, Noortgate, & Onghena, 2007; Harradine,

Batanero, & Rossman, en prensa). Igualmente se ha denunciado el uso e interpretación incorrecta de la inferencia por parte de investigadores a lo largo de muchos años (por ejemplo, Morrison & Henkel, 1970; Abelson, 1997; Harlow, Mulaik, & Steiger, 1997; Borges, San Luis, Sánchez, & Cañadas, 2001). Una de las posibles razones de esta situación es que la enseñanza es con frecuencia rutinaria, enfatiza las fórmulas y definiciones sin prestar toda la atención que requieren las actividades de interpretación y contexto de donde se tomaron los datos. Aunque los estudiantes lleguen a dar las definiciones y usar los algoritmos con competencia aparente, pueden tener dificultades de comprensión o de conexión de los conceptos estadísticos fundamentales y no sabrán elegir el procedimiento que deben aplicar cuando se enfrenten a un problema real de análisis de datos.

En este trabajo comenzamos describiendo algunos de los errores más denunciados en el uso de la inferencia en su acepción frecuencial. Analizamos seguidamente algunas ideas que podrían servir para introducción el tema de forma progresiva y con una menor formalización. Finalizamos con algunas reflexiones sobre la enseñanza del tema.

Diferentes aproximaciones a la inferencia

La enseñanza actual de la inferencia soslaya la problemática filosófica asociada y las diversas aportaciones que la estadistica ha proporcionado para resolver dicha problemática. De este modo, se presenta la inferencia frecuencial como una metodologia unificada, ocultando las diferentes aproximaciones y las controversias que dentro de la misma estadística ha tenido esta metodologia (Batanero, 2000).

Los problemas filosóficos a que hemos aludido se relacionan con la posibilidad de obtener conocimiento general (teorías científicas) a partir de casos particulares (inducción empírica), esto es, con la posibilidad de justificar el razonamiento inductivo y sus conclusiones, problema de gran importancia en las ciencias empiricas. Este problema ha ocupado a los filósofos y estadísticos por largo tiempo, sin que se haya obtenido una solución aceptada por consenso (Rivadulla, 1991, Cabria, 1994).

Popper (1967) propuso que una cierta teoría puede racionalmente considerarse como cierta frente a otras con las que se halla en competencia, si, a pesar de numerosos intentos, no se consigue refutarla. Este autor sugirió poner a prueba las hipótesis científicas, mediante experimentos u observaciones y comparar los patrones deducidos de la teoría con los datos obtenidos. La teoria seria provisionalmente confirmada si, los datos recogido siguiesen estos patrones, aunque los datos futuros podrían contradecirla. En cambio si los datos del experimento se apartasen del patrón esperado, la teoría sería refutada, por lo que el rechazo de la hipotesis tiene mayor fuerza que su confirmación.

Estas ideas de Popper tuvieron una gran influencia en el desarrollo de la inferencia estadística, que fue desarrollada para tratar de apoyar el razonamiento inductivo, recurriendo a la probabilidad. Ya que mediante un razonamiento inductivo no es posible llegar a la certidumbre de una proposición (verdad cierta), diversos autores intentaron enunciar proposiciones probables (verdad probable), tratando de calcular la probabilidad de que una hipótesis fuese cierta (Ridadulla, 1991; Batanero, 2000).

Es importante resaltar que la probabilidad de una hipótesis no tiene sentido en inferencia clásica frecuencial, donde la probabilidad se interpreta como el límite de la frecuencia relativa. Ello es debido a que una hipótesis será cierta o falsa siempre, no un porcentaje de veces en una serie de pruebas. Sin embargo, es posible asignar una probabilidad a las hipótesis dentro del marco de la inferencia bayesiana, donde la probabilidad se concibe como un grado de creencia personal (Gingerenzer, 1993; Lecoutre & Lectoutre, 2001). En este último caso podremos diferenciar dos usos del concepto de probabilidad de una hipótesis:

Probabilidad inicial, creencia inicial en la hipótesis antes de recoger datos de experimentos donde se trate de poner la hipótesis a prueba.

Probabilidad final, es decir, creencia en la hipótesis una vez se han recogido los datos. Por otro lado, dentro de la inferencia frecuencial hay dos concepciones sobre los contrastes estadísticos: (a) las pruebas de significación, que fueron introducidas por Fisher y (b) los contrastes como reglas de decisión entre dos hipótesis, que fue la concepción de Neyman y Pearson. Estas aproximaciones no se diferencian en lo que concierne a los cálculos, pero si en la filosofía y objetivos. La enseñanza ignora estas diferencias y presenta los contrastes de hipótesis como si se tratase de una única metodología.

El test de significación de Fisher

Un test de significación es para Fisher un procedimiento que permite rechazar una hipótesis, con un cierto nivel de significación. En su libro The design of experiments, publicado en 1935, Fisher introduce su teoría de las pruebas de significación, que resumimos en lo que sigue.

Supongamos que se quiere comprobar si una cierta hipótesis Ho (hipótesis nula) es cierta. Generalmente la hipótesis se refiere a una propiedad de la población (por ejemplo, el valor supuesto de un parámetro) pero no se tiene acceso a toda la población, sino sólo a una muestra de la misma. Para poner la hipótesis a prueba se organiza un experimento aleatorio asociado a Ho y se considera un cierto suceso S que puede darse o no en este experimento, y del cual se sabe que tiene muy poca probabilidad, si Ho es cierta. Realizado el experimento ocurre precisamente S.

Hay dos posibles conclusiones:

Bien la hipótesis Ho era cierta y ha ocurrido S, a pesar de su baja probabilidad. Bien la hipótesis Ho era falsa.

Generalmente el experimento consiste en tomar una muestra de la población sobre la que se realiza el estudio y calcular un estadístico, que establece una medida de discrepancia entre los datos y la hipótesis. En caso de que se cumpla la hipótesis, el estadístico define una distribución, al variar los datos aleatoriamente (Cabriá, 1994; Batanero, 2000). Un test de significación efectúa una división entre los posibles valores de este estadístico en dos clases: resultados estadísticamente significativos (para los cuales se rechaza la hipótesis) y no estadísticamente significativos (Ridavulla, 1991), para los cuáles no se puede rechazar la hipótesis.

El razonamiento que apoya un test de significación parte de la suposición de que la hipótesis nula es cierta. Bajo este supuesto, se calcula la distribución del estadístico en todas las posibles muestras de la población. A partir de esta distribución se calcula la probabilidad del valor particular del estadístico obtenido en la muestra y se determina a cual de las dos clases (resultado estadísticamente significativos y no estadísticamente significativos) pertenece. Si el valor obtenido pertenece a la región de rechazo se rechaza la hipñotesis y en caso contrario no se rechaza. Observamos que en este enfoque no se identifica una hipótesis alternativa concreta (Batanero & Díaz, 2006). Tampoco hay un criterio estándar sobre qué es un "suceso improbable". El valor de la probabilidad por debajo de la cuál rechazamos la hipótesis lo fija el investigador según su juicio subjetivo y su experiencia.

Los contrastes de hipótesis de Neyman y Pearson

Neyman y Pearson conceptualizaron el contraste de hipótesis como un proceso de decisión que permite elegir entre una hipótesis dada H0 y otra hipótesis alternativa H1 (Rivadulla, 1991). Por ello contemplan dos posibles decisiones respecto a H0: rechazar esta hipótesis, asumiendo que es falsa y aceptando la alternativa, o abstenerse de esa acción. Al tomar una de estas decisiones sobre las hipótesis a partir de los resultados del contraste se consideran dos tipos de error:

Error tipo I: Rechazar una hipótesis nula cuando es cierta. Se suele establecer un criterio de prueba que asegura que la probabilidad de cometer este tipo de error sea menor que un número preestablecido o nivel de significación.

Error tipo II: aceptar la hipótesis nula que de hecho es falsa. Beta ( B) es la probabilidad de cometer este tipo de error y el complemento de beta (1 – B) sería la potencia del contraste. Mientras que alfa es un número preestablecido, B es variable, porque su valor depende del valor del parámetro (generalmente desconocido).

Una vez definidas las hipótesis nula y alternativa y fijada la probabilidad de cometer error tipo I, se elige el contraste de mayor potencia. Calculado el estadístico, se toma la decisión de rechazar o no rechazar la hipótesis nula, comparando el p-valor con el nivel de significación o, equivalentemente, comparando el valor del estadístico calculado con el valor crítico. En este enfoque, el contraste proporciona un criterio para decidir entre una de las dos hipótesis, se reconocen los errores tipo II, y las probabilidades de error tienen una interpretación frecuencial.

Errores usuales en la interpretación de la inferencia frecuencial

El contraste de hipótesis

El mayor numero de errores e interpretaciones incorrectas en la inferencia estadística están relacionados con el contraste de hipótesis, lo que lleva a una situación paradójica, pues, por un lado, se requiere un resultado significativo para obtener un artículo publicado en muchas revistas y, por otro lado, los resultados significativos son malinterpretados en estas publicaciones (Falk & Greenbaum, 1995).

Un concepto que se suele comprender erróneamente es el nivel de significación, a, que, como se ha indicado, es la probabilidad de rechazar la hipótesis nula, supuesta cierta. La interpretación más común de este concepto consiste en cambiar los dos términos de la probabilidad condicionada, es decir, interpretar el nivel de significación como la probabilidad de que la hipótesis nula sea cierta, una vez que la decisión de rechazarla se ha tomado. A este respecto Birnbaum (1982) informó de que sus alumnos encontraron razonable la siguiente definición: Un nivel de significación del 5% significa que, en promedio, 5 de cada 100 veces que rechacemos la hipótesis nula estaremos equivocados. Falk (1986) informo que la mayoría de sus estudiantes creían que a era la probabilidad de equivocarse al rechazar la hipótesis nula. Vallecillos (1994) confirma estos errores en una investigación utilizando una amplia muestra de estudiantes de diferentes especialidades universitarias. Resultados similares fueron encontrados por Krauss y Wassner (2002) en profesores de universidad implicados en la enseñanza de métodos de investigación.

En los contrastes de hipótesis también se confunden las funciones de las hipótesis nula y alternativa, así como las hipótesis estadística alternativa con la hipótesis de investigación (Chow, 1996). Falk y Greenbaum (1995) sugieren la existencia de mecanismos psicológicos que llevan a la creencia de que la obtención de un resultado significativo supone minimizar la incertidumbre. Vallecillos (1999) describió cuatro concepciones distintas sobre el tipo de prueba de que proporciona el contraste de hipótesis: (a) contraste como una regla en la toma de decisiones, (b) contraste procedimiento para la obtención de apoyo empírico a la hipótesis de investigación; (c) contraste como prueba probabilística de la hipótesis y (d) contraste como prueba matemática de la verdad de la hipótesis. Mientras que las dos primeras concepciones son correctas, muchos estudiantes en su investigación, entre ellos algunos profesores en formación, se inclinan por las dos últimas.

La creencia de que rechazar la hipótesis nula supone demostrar que es errónea, también se encontró en la investigación por Liu y Thompson (2009) al entrevistar a ocho profesores de secundaria, que parecían no comprender la lógica de la inferencia estadística. Liu y Thompson observan que las ideas de probabilidad y atipicidad son fundamentales para comprender la lógica de la prueba de hipótesis, donde se rechaza una hipótesis nula cuando una muestra de esta población se considera lo suficientemente inusual a la luz de la hipótesis nula: El muestreo es un sistema de ideas interrelacionadas que implica repetir la selección al azar, la variabilidad y la distribución. Mientras que una muestra aleatoria simple es una parte fundamental de la inferencia estadística, probablemente más importante es la apreciación de las que podrían haberse elegido. (Saldahna & Thompson, 2002).

Intervalos de confianza

Para paliar los errores anteriores se propone complementar o sustituir los contrastes estadísticos por intervalos de confianza. Sin embargo, los intervalos de confianza tienen la misma interpretación frecuencial que los contrastes, ya que el coeficiente de confianza sólo nos indica la proporción de intervalos calculados de la misma población con tamaño de muestra dado que cubrirían el valor del parámetro, pero no si el intervalo calculado lo cubre o no (Cumming, Williams, & Fidler, 2004).

Fidler y Cumming (2005) preguntaron a estudiantes de licenciatura y postgrado en ciencias su interpretación de resultados estadísticamente no significativos en un estudio de baja potencia, dando los datos en dos formas diferentes (la primera vez usando valores p, y la segunda mediante intervalos de confianza). Los autores indican que los estudiantes interpretaron incorrectamente los valores p más a menudo que los intervalos de confianza. Concluyen que es preferible la enseñanza de la inferencia a través de intervalos de confianza (IC), en lugar de a través del contraste de hipótesis.

Pasos en la construcción del razonamiento inferencial

Dado los errores descritos, así como el gran número de conceptos cuya comprensión se requiere para un adecuado uso de la inferencia, es claro que el desarrollo de un razonamiento estadístico adecuado requiere un periodo de varios años. El desarrollo del razonamiento inferencial debe construirse en forma progresiva desde la educación secundaria y Bachillerato, para poder abordar en la universidad el estudio de los contrastes de hipótesis e intervalos de confianza de una forma más adecuada. En este sentido, las nuevas propuestas curriculares proporcionan una oportunidad de introducir gradualmente ideas sobre inferencia, aumentando el nivel de formalización progresivamente. En lo que sigue, describimos algunas etapas y alternativas didácticas para la construcción de este razonamiento.

Muestreo

El alumno debe comprender en primer lugar el proceso de muestreo. El concepto de muestra nos introduce a la inferencia y establece un puente entre la estadística y probabilidad. Es una idea importante, porque todo nuestro conocimiento y juicios sobre el mundo o las personas están basados en el muestreo, ya que, usualmente, sólo podemos estudiar u observar una parcela de la realidad en la que estamos interesados.

Aunque parezca una idea sencilla, muchas personas no alcanzan un razonamiento correcto sobre el muestreo y no siguen las reglas matemáticas normativas que guían la inferencia científica formal, cuando toman una decisión bajo incertidumbre (Kahneman, Slovic y Tversky, 1982). En su lugar, se utilizan heurísticas que reducen la complejidad de los problemas de probabilidad, pero que causan errores y son resistentes al cambio. Por ejemplo, en la heurística de la representatividad las personas estiman la verosimilitud de un suceso teniendo sólo en cuenta su representatividad respecto a la población a la cual pertenece. Un error asociado es la creencia en la ley de los pequeños números por la que se espera una convergencia de las frecuencias relativas en pequeñas muestras (Sedlemeier, 1999; Jones y Thornton, 2005).

Muchos currículos actuales de secundaria ofrecen la posibilidad de remediar esta situación al incluir algunos contenidos sobre los diferentes métodos de muestreo aleatorio. Será importante que el profesor tenga cuidado con no transmitir la idea de que una muestra aleatoria es una copia de la población y proporcione a los estudiantes la posibilidad de observar la variabilidad del muestreo. Para entender el propósito de extraer una muestra aleatoria simple en inferencia es necesario asimilar dos ideas aparentemente antagónicas: la representatividad y la variabilidad

(Batanero, Godino, Vallecillos, Green, & Holmes 1994). El fin de tomar una sola muestra sería cuantificar el grado de atipicidad en relación con todas las otras muestras que podrían haber sido extraídas (Saldahna & Thompson, 2002).

Introducción intuitiva de ideas de inferencia

Algunos autores sugieren una alternativa informal a la enseñanza de la inferencia estadística (por ejemplo, Rubin, Hammerman, & Konold, 2006; Rossman, 2008) que consistiría en la introducción menos formalizada de un conjunto de ideas fundamentales que sustentan la comprensión de la inferencia estadística formal. Rossman (2008) sugiere una introducción informal siguiendo los pasos siguientes: (a) Partir de una hipótesis dada acerca de los datos (b) Uso de la simulación o de cálculos de probabilidad elemental para concluir que los datos observados son muy poco probables si el modelo fuera cierto (cálculo intuitivo de un p-valor), y (c) Rechazar la hipótesis inicial (modelo) basado en el p-valor muy pequeño, en lugar de creer que un suceso muy raro ha ocurrido por casualidad. Este proceso de razonamiento, es muy natural para los estudiantes, y de hecho sigue la concepción de Fisher de pruebas de significación. Podemos analizarlo a partir del siguiente ítem, usado en las investigaciones de Green (1991) con chicos de 11 a 16 años, que es similar a los utilizados con adultos en las pruebas sobre percepción de la aleatoriedad:

Ítem 1. Se pidió a dos niñas lanzar una moneda equilibrada 150 veces y anotaran los resultados. Estos son los datos que presentaron al profesor ¿Hicieron trampas Clara o Luisa? ¿Por qué?

Clara: c+c++cc++cc+c+c++c++c+ccc+++ ccc++c++c+c+c++cc+ccc+c+c+cc+++c c++c+c++cc+c++cc+c++cc+cc+c+++c ++cc++c++c+c+cc+c++cc+c+c++cc c+cc++c+c++cc+++c+++c+c++ccc++

Luisa: +cc+++c++++c+cc+++cc+cc+++cc+ccc+++c++++++c+c+c+c++++cccccc+ ccc+c+cc+ccccc+ccc++ccc+c+cccc ccccc++c+ccccccc+++++cccc++c+ c+cc+cc+cc++++++c+cc++ccc++ccc

Una de las estrategias que pueden seguir los estudiantes para resolver el problema anterior, es contar el número de caras de cada una de las secuencias y comparar con el número esperado (75 caras si consideramos que la moneda está bien equilibrada). Este sería el modelo o hipótesis nula y habría que comprobar si los datos observados (las secuencias de Clara y Luisa) se acercan a los patrones esperados bajo esta hipótesis. Nosotros hemos realizado este recuento, presentando los resultados en la Tabla 1. Observamos que ningunas de las dos secuencias tiene una frecuencia de caras y cruces exactamente igual a la esperada (teórica), pero, de todos modos, si se hubiese obtenido exactamente la frecuencia teórica, nos hubiese resultado sospechoso. Esperamos que la frecuencia observada (de Clara y Luisa) se asemeje a la teórica, pero no demasiado. Intuitivamente parece que Luisa se aparta demasiado y, por tanto, hizo trampas.

Tabla 1.

Resultados teóricos y observados en el ítem 1

Cara

Cruz

Clara

72

78

Luisa

67

83

Teórica

75

75

Continuando el análisis, analizamos la frecuencia de resultados posibles cuando contamos los resultados de dos en dos o tres en tres (Tablas 2 y 3). Ahora se observa más claramente la mayor diferencia de Clara respecto a la distribución teórica (por ejemplo, nunca obtiene tres caras seguidas, cuando teóricamente se esperarían 6 rachas de este tipo). También podemos ver que Clara se aparta más que Luisa de lo esperado al representar gráficamente el número de caras obtenidas en cada dos o tres lanzamientos en las tres secuencias (Figura 1). Por tanto, ya que los datos de Clara son muy improbables, en caso de ser cierta nuestra hipótesis nula, los rechazamos y decidimos que es ella la que ha hecho trampas.

Tabla 2.

Frecuencias de posibles sucesos al contar los resultados 2 a 2

CC

C+

+C

++

Clara

12

30

18

15

Luisa

25

21

12

17

Teórica

19

19

19

19

Tabla 3.

Frecuencias de posibles sucesos al contar los resultados 3 a 3

CCC

CC+

C+C

C+C

+CC

+C+

++C

+++

Clara

0

2

13

9

6

7

10

1

Luisa

8

11

6

3

6

4

5

6

Teórica

6

6

6

6

6

6

6

6

Este estudio, que hemos hecho en forma elemental, estaría al alcance de los alumnos de secundaria y también podría hacerse a nivel más formal, en la universidad utilizando el contraste chi-cuadrado. En cualquiera de los dos casos serviría para introducir las ideas básicas que subyacen en el modelo de test de significación de Fisher.

Monografias.com

Figura 1. Número de caras en dos y en tres lanzamientos en las secuencias

La distribución muestral y el Teorema Central del Limite

Otro punto en el aprendizaje inferencia estadística es comprender la variación de un

estadístico dado (por ejemplo, la media) en diferentes muestras de la misma población (distribución de muestreo). Al pensar en la inferencia estadística se debe ser capaz de diferenciar claramente entre tres distribuciones:

La distribución de probabilidad que describe los valores de una variable aleatoria de la población (por ejemplo, el peso al nacer de un recién nacido). Esta distribución por lo general depende de algunos parámetros. Por ejemplo, la distribución normal se especifica mediante y , la media y la desviación estándar poblacional.

La distribución de los datos de los valores de una variable estadística de una sola muestra tomada al azar de la población (el peso en una muestra de 100 recién nacidos). De esta muestra se pueden utilizar las estadísticas x y s, la media muestral y la desviación estándar para estimar los valores de los parámetros de la población.

La distribución de probabilidad que describe los valores de un estadístico en todas las muestras tomadas al azar de la población (el peso medio en todas las posibles muestras de 100 recién nacidos tomadas al azar de la población). El teorema central del límite asegura que los parámetros de esta distribución se relacionan con la de la muestra. Por ejemplo, el

Monografias.com

La comprensión de las distribuciones muestrales requiere que los estudiantes integren los diferentes niveles descritos, pues cada una de estas distribuciones requiere conocimientos y técnicas específicas. Cuando se piensa en la distribución de la población y la distribución de la muestra aleatoria simple, la unidad de análisis (caso) es un objeto individual; sin embargo, al estudiar la distribución de muestreo el caso es una muestra aleatoria simple (Batanero et al, 1994). Sin embargo la mayoría de los estudiantes tienen dificultades, confundiendo los diversos niveles (Saldahna & Thompson, 2002).

Por otro lado, es importante que los estudiantes comprendan intuitivamente el teorema del central límite (TCL), que es fundamental en la construcción de distribuciones de muestreo aproximadas para la media y otros parámetros. La simulación con ordenador proporciona una herramienta interesante para observar esta convergencia. Chance, Delmas y Garfield (2004) informaron sobre una serie de estudios que investigan el impacto de la interacción de los estudiantes con el software, específicamente diseñado para enseñar a las distribuciones de muestreo, en su comprensión del tema. En los primeros estudios, y a pesar de las capacidades del software, los estudiantes tendieron a buscar las reglas, pero no comprendieron las relaciones subyacentes (el teorema del límite central), que causaron los patrones visibles en el muestreo.

En estudios posteriores, los autores pidieron a los estudiantes a hacer predicciones acerca de las distribuciones muestrales de las medias y luego enfrentarse a sus conjeturas, observando los resultados empíricos de la simulación. Esta estrategia demostró ser útil para mejorar el razonamiento de los alumnos acerca de las distribuciones muestrales.

Inferencia Bayesiana elemental

Como alternativa a la inferencia clásica se podría realizar una introducción intuitiva a los métodos bayesianos que, según algunos autores (por ejemplo, Lecoutre & Lecoutre, 2001) son más intuitivos que la inferencia frecuencial para los estudiantes. El teorema de Bayes, permite transformar las probabilidades a priori (antes de realizar un experimento), una vez se observan sus consecuencias, en probabilidades a posteriori, que incorporan la información de los datos observados. Consideremos el siguiente ejemplo de diagnóstico médico:

Item 2. La probabilidad de que una mujer americana de entre 40 y 50 años sin síntomas, tenga cáncer de pecho es 0,8 %. Si una mujer americana tiene cáncer de pecho tendrá una mamografía positiva con probabilidad 90%. También el 7% de mujeres sanas dan positivo en la mamografía. Supongamos que una mamografía da positiva, ¿Cuál es la probabilidad de que la mujer en realidad tenga cáncer de pecho? (Eddy, 1982).

Si en el ejemplo llamamos "C" al suceso "tener cáncer" y "+" al suceso "obtener un diagnóstico positivo", hemos de diferenciar la probabilidad a priori de tener cáncer antes de hacerse la prueba P(C)=0.008 y la probabilidad a posteriori P(C/+) o probabilidad condicional de tener cáncer una vez que la prueba fue positiva. P(+/C)=0,8 es la verosimilitud de tener una prueba positiva si se tiene cáncer. Calculemos la probabilidad pedida, ayudándonos de un diagrama en árbol y pensando en términos de frecuencias absolutas, para lo cual consideraremos un grupo de 100000 mujeres de las características dada (Figura 2). Con la proporción supuesta de cáncer en la población, aproximadamente 800 de estas mujeres estarían enfermas y de ellas 720 serían detectadas en la mamografía (90%). El 7 % de ellas recibirían un resultado positivo, aunque estén sanas (falso positivo), lo que supone un total de 6944 mujeres. En total tenemos 7664 mamografías positivas en las 100000 mujeres, aproximadamente, la mayor parte de las cuales son, en realidad de personas sanas. Aplicando la regla de Laplace, obtenemos que la probabilidad de que la mujer que reciba el resultado positivo realmente tenga un cáncer es el cociente 720/7664 que da un valor de 0,0939; es decir, solo el 9% de las mujeres que obtienen una mamografía positiva en este grupo de edad realmente están enfermas.

Para el caso general donde Ai representa un conjunto de posibles sucesos que pueden dar lugar a unos datos D, y queremos calcular las probabilidades finales de los sucesos P(Ai/D), conocidas sus probabilidades iniciales P(Ai) y verosimilitudes de obtener estos datos según vengan causados por los diferentes sucesos P(D/Ai), el teorema se puede expresar con la formula (1):

Monografias.com

Figura 2. Partición de la población supuesta de 100000 mujeres

Como se muestra en el ejemplo, las probabilidades de los sucesos de interés (estar o no enfermo) pueden revisarse (pasar de probabilidades a priori a probabilidades a posteriori) y pierden de este modo el carácter objetivo que tenían en las concepciones clásica y frecuencial.

En inferencia clásica un parámetro 0 (por ejemplo el peso medio de un recién nacido en una cierta población) se considera constante, pero desconocido y el objetivo de la inferencia es encontrar una estimación o aproximación de su verdadero valor, a partir de los datos. En inferencia bayesiana, por el contrario un parámetro 0 es una variable aleatoria con una distribución a priori de probabilidades p( 0), que indica el conocimiento sobre 0 antes de tomar los datos. En el ejemplo, se supondría que el peso medio del recién nacido varía (en el tiempo, o geográficamente, etc.), pero se tiene una distribución inicial de probabilidades para dicho valor medio. El objetivo de la inferencia bayesiana sería usar los datos de una muestra para actualizar esta distribución a priori y mejorar nuestro conocimiento del peso medio del recién nacido. Esta actualización se realiza mediante el teorema de Bayes. Si representamos por y = (y1,..., yn) el conjunto de datos, cuya función de verosimilitud p(y/ 0 ) depende del parámetro, entonces la distribución a posteriori de 0 dados los datos observados y viene dada por (2) (Lee, 2004)

Monografias.com

La aplicación sistemática del teorema de Bayes constituye el método principal de la inferencia bayesiana, cuyo objetivo básico es obtener la distribución a posteriori de los parámetros (O"Hagan y Forster, 2004). La mejor estimación del parámetro será su valor esperado (promedio) en la distribución a posteriori, que minimiza el error cuadrático esperado. Dicha distribución también permitirá calcular probabilidades de que los parámetros se encuentren en intervalos de valores dados (intervalos de credibilidad), así como calcular probabilidades de que ciertas hipótesis sean verdaderas o falsas. El teorema de Bayes podría aplicarse sucesivamente en nuevos experimentos, tomando como probabilidades iniciales del segundo experimento las probabilidades finales obtenidas en el primero y así sucesivamente.

Hay, hoy día, un creciente número de publicaciones acerca de cómo introducir los conceptos bayesiano a los estudiantes que provienen de contextos no científicos (por ejemplo, Albert y Rossman, 2001; Díaz, 2005). Sin embargo, los resultados reportados de los experimentos o investigaciones que se centran en la enseñanza de la estadística bayesiana son aún muy limitados. Por otra parte, algunas de las experiencias comunicadas indican que los alumnos pueden cometer errores en la interpretación de sus resultados (Albert, 2000; Díaz, De la Fuente y Batanero; 2008) por lo que sería necesario realizar una mayor investigación sobre este tema,

Implicaciones para la enseñanza y la investigación

El análisis realizado indica que no es suficiente enseñar a los estudiantes sobre las reglas y conceptos con el fin de llegar a la comprensión integral de la inferencia. A pesar de nuestros esfuerzos, las concepciones erróneas permanecen después de la instrucción formal en estadística. Debiéramos preguntarnos por qué la enseñanza actual de la estadística no mejora las intuiciones y qué tendríamos que cambiar para remediar la situación. Quizás "la estadística debiera enseñarse a la vez que se muestran materiales sobre estrategias intuitivas y errores de inferencia"..." esto tendría la ventaja de aclarar los principios subyacentes de la estadística y probabilidad y facilitar que se aprecie su aplicación a situaciones concretas" (Nisbett & Ross, 1980, p.281).

Numerosos applets interactivos proporcionan hoy un entorno dinámico y visual en el que los estudiantes pueden participar en el muestreo al azar y la construcción de las distribuciones muestrales. La disponibilidad actual de software y tecnología hace que sea posible dedicar el tiempo que previamente se invertía en cálculos laboriosos para propiciar una aproximación menos formal y más intuitiva a la estadística. "La capacidad estadística que se requiere no es la tradicional", "Debemos preguntarnos si la enseñanza tradicional de los estudiantes es demasiado restringida" Moore (1997, p. 124).