Teoria
A continuación presento un resumen estructurado de los conceptos básicos y fundamentos teóricos de la asignatura, organizados según la progresión lógica de los temas descritos en las fuentes.
1. Fundamentos y Estadística Descriptiva (Temas 1 y 2)
La estadística se define no solo como la recolección de datos, sino como una herramienta matemática para la toma de decisiones y la predicción [1]. Se divide en dos grandes ramas: la Estadística Descriptiva, que organiza y visualiza datos sin extraer conclusiones generales; y la Estadística Inferencial, que utiliza una muestra para deducir conclusiones sobre una población total [2, 3].
- Tipos de Variables: Es el primer paso del análisis.
- Cualitativas (Categóricas): Pueden ser nominales (sin orden, ej. color) u ordinales (con jerarquía, ej. nivel educativo) [4].
- Cuantitativas (Numéricas): Se dividen en discretas (valores finitos o contables) y continuas (infinitos valores en un intervalo, ej. tiempo o altura) [4].
- Medidas de Posición y Dispersión:
- Centralización: La media es el promedio aritmético, pero es sensible a valores atípicos (outliers). La mediana divide los datos en dos mitades (50/50) y es más robusta. La moda es el valor más frecuente [5].
- Dispersión: Miden cuánto se alejan los datos del centro. Incluyen la varianza (promedio de desviaciones al cuadrado) y la desviación típica (raíz de la varianza, en la misma unidad que los datos) [6].
- Visualización: Se seleccionan según la variable. El histograma (barras juntas) se usa para variables continuas, mientras que el gráfico de barras (separadas) es para cualitativas [7, 8]. El Boxplot (caja y bigotes) es fundamental para visualizar cuartiles y detectar outliers mediante el Rango Intercuartílico (IQR) [8].
- Correlación de Pearson (\(r\)): Mide la fuerza y dirección de la relación lineal entre dos variables cuantitativas, oscilando entre -1 y +1 [9].
2. Teoría de la Probabilidad (Tema 3)
La probabilidad mide la frecuencia relativa de un suceso en un experimento aleatorio (aquel cuyo resultado no se puede predecir con certeza) [10, 11].
- Espacio Muestral (\(E\)) y Sucesos: \(E\) contiene todos los resultados posibles. Un suceso es cualquier subconjunto de \(E\) [12].
- Operaciones de Conjuntos (Leyes de De Morgan): Son vitales para el cálculo. Establecen que el complementario de la unión es la intersección de los complementarios, y viceversa [13].
- Probabilidad Condicionada: Probabilidad de que ocurra \(A\) sabiendo que ha ocurrido \(B\) (\(P(A/B)\)). Si dos sucesos son independientes, la ocurrencia de uno no afecta al otro y \(P(A \cap B) = P(A) \cdot P(B)\) [14, 15].
- Teorema de Bayes: Permite calcular la probabilidad a posteriori basándose en información previa (a priori) y verosimilitud [16, 17].
3. Variables Aleatorias y Distribuciones (Temas 4, 5, 6 y 7)
Una Variable Aleatoria (V.A.) es una función que asigna un valor numérico a cada resultado de un experimento aleatorio [18, 19].
Conceptos Generales
- Función de Probabilidad/Densidad (\(f\)): Asigna probabilidad a un valor (discretas) o masa de probabilidad (continuas) [20].
- Función de Distribución (\(F\)): Representa la probabilidad acumulada hasta un punto (\(P(X \le x)\)) [20, 21].
Distribuciones Discretas (Conteo)
- Uniforme Discreta: Todos los valores tienen la misma probabilidad (\(1/n\)) [22].
- Binomial (\(B(n, p)\)): Modela el número de éxitos en \(n\) experimentos independientes de Bernoulli (éxito/fracaso) con probabilidad \(p\) constante [23].
- Poisson: Modela sucesos raros u ocasionales en un intervalo continuo de tiempo o espacio. Se caracteriza por un solo parámetro \(\lambda\) (tasa media), cumpliéndose que la media es igual a la varianza [24, 25]. Sirve para aproximar una Binomial cuando \(n\) es grande y \(p\) pequeña [26].
Distribuciones Continuas (Medición)
- En estas variables, la probabilidad de un valor exacto es siempre 0 (\(P(X=k)=0\)); se calculan probabilidades sobre intervalos (áreas) [27, 28].
- Distribución Normal (Campana de Gauss): Simétrica respecto a la media. Para calcular probabilidades, se debe realizar la tipificación para transformar la variable \(X\) a la Normal Estándar \(Z \sim N(0,1)\) mediante la fórmula \(Z = (X - \mu) / \sigma\) y usar tablas estadísticas [29, 30].
- Teorema Central del Límite (TCL): Establece que la suma de muchas variables aleatorias independientes tiende a distribuirse como una normal [31].
- T de Student: Se utiliza en lugar de la Normal cuando la muestra es pequeña (\(n < 30\)) o se desconoce la desviación típica poblacional, usando grados de libertad [32].
4. Inferencia Estadística (Temas 8 y 9)
Es el proceso de sacar conclusiones sobre una población a partir de una muestra representativa [33].
- Estimación Puntual: La media muestral (\(\bar{x}\)) estima la media poblacional (\(\mu\)). Para la varianza, se usa la cuasivarianza (\(s^2\)), que divide por \(n-1\) para ser un estimador insesgado [34].
- Intervalos de Confianza: Rango de valores donde se espera encontrar el parámetro poblacional con un nivel de confianza (\(1-\alpha\)). El error máximo (\(E\)) permite calcular el tamaño de muestra (\(n\)) necesario [34, 35].
- Contraste de Hipótesis: Herramienta para tomar decisiones.
- Hipótesis Nula (\(H_0\)): El "status quo" o situación teórica inicial.
- Hipótesis Alternativa (\(H_1\)): La transformación o cambio que se sospecha.
- Errores: Tipo I (Rechazar \(H_0\) siendo verdadera - Falso Positivo) y Tipo II (Aceptar \(H_0\) siendo falsa - Falso Negativo) [36].
- P-valor: El nivel de significación más pequeño para rechazar \(H_0\). Si el p-valor < \(\alpha\), se rechaza la hipótesis nula [36].
5. Probabilidad Multivariante (Tema 10)
Estudia la relación simultánea entre variables. * Correlación y Covarianza: La covarianza indica si varían conjuntamente, pero la correlación de Pearson (\(r\)) mide la fuerza de la relación lineal [37]. * Regresión Lineal: Busca la recta que minimice los errores para predecir una variable en función de otra [38].