Inferencia

La estadística inferencial es una parte de la estadística que comprende los métodos y procedimientos para deducir propiedades de una población estadística, a partir de una pequeña parte de la misma. La estadística inferencial comprende como aspectos importantes:
  • La toma de muestras o muestreo.
  • La estimación de parámetros o variables estadisticas.
  • El contraste de hipótesis.
  • El diseño experimental.
  • La inferencia bayesiana.
  • Los métodos no paramétricos
La Inferencia Estadística es la parte de la estadística matemática que se encarga del estudio de los métodos para la obtención del modelo de probabilidad (forma funcional y parámetros que determinan la función de distribución) que sigue una variable aleatoria de una determinada población, a través de una muestra (parte de la población) obtenida de la misma.
Los dos problemas fundamentales que estudia la inferencia estadística son el "Problema de la estimación" y el "Problema del contraste de hipótesis"
Cuando se conoce la forma funcional de la función de distribución que sigue la variable aleatoria objeto de estudio y sólo tenemos que estimar los parametros que la determinan, estamos en un problema de inferencia estadística paramétrica ; por el contrario cuando no se conoce la forma funcional de la distribución que sigue la variable aleatoria objeto de estudio, estamos ante un problema de inferencia estadística no paramétrica.

Coeficiente de Determiación

En Estadística, se llama coeficiente de determinación a la proporción de la varianza de la variable dependiente que está explicada por un modelo estadístico.

Caso general

Un modelo estadístico se construye para explicar una variable aleatoria que llamaremos dependiente a través de otras variables aleatorias a las que llamaremos factores. Dado que podemos predecir una variable aleatoria mediante su media y que, en este caso, el error cuadrático medio es su varianza, el máximo error cuadrático medio que podemos aceptar en un modelo para una variable aleatoria que posea los dos primeros momentos es la varianza. Para estimar el modelo haremos varias observaciones de la variable a predecir y de los factores. A la diferencia entre el valor observado de la variable y el valor predicho la llamaremos residuo. La media cuadrática de los residuos es la varianza residual.
Si representamos por \sigma^2 la varianza de la variable dependiente y la varianza residual por \sigma^2_r, el coeficiente de determinación viene dado por la siguiente ecuación:
 \rho^2 = 1 - { {\sigma^2_r} \over  {\sigma^2} }
Se mide en tantos por ciento. Si la varianza residual es cero, el modelo explica el 100% de valor de la variable; si coincide con la varianza de la variable dependiente, el modelo no explica nada y el coeficiente de determinación es del 0%. En variables económicas y financieras, suele ser difícil conseguir un coeficiente de determinación mayor de un 30% .



            sum n      2
 2   scE    i=1 (y^i- y)
R =  scG--=  sum n------2-
              (yi- y)
           i=1
(6.15)
o bien

        scR      n - 2 ^s2 R2 = 1
-----= 1- ----- -R2-
        scG      n - 1 ^sY
Como scE < scG, se verifica que 0 < R2 < 1.
El coeficiente de determinación mide la proporción de variabilidad total de la variable dependiente (Y ) respecto a su media que es explicada por el modelo de regresión. Es usual expresar esta medida en tanto por ciento, multiplicándola por cien.

Coeficientes de Correlación

Coeficiente de correlación

El coeficiente de correlación lineal se expresa mediante la letra r.
coeficiente de correlación lineal

Propiedades

1. El coeficiente de correlación no varía al hacerlo la escala de medición.
Es decir, si expresamos la altura en metros o en centímetros el coeficiente de correlación no varía.
2. El signo del coeficiente de correlación es el mismo que el de la covarianza.
Si la covarianza es positiva, la correlación es directa.
Si la covarianza es negativa, la correlación es inversa.
Si la covarianza es nula, no existe correlación.
3. El coeficiente de correlación lineal es un número real comprendido entre menos −1 y 1.
−1 ≤ r ≤ 1
4. Si el coeficiente de correlación lineal toma valores cercanos a −1 la correlación es fuerte e inversa, y será tanto más fuerte cuanto más se aproxime r a −1.
5. Si el coeficiente de correlación lineal toma valores cercanos a 1 la correlación es fuerte y directa, y será tanto más fuerte cuanto más se aproxime r a 1.
6. Si el coeficiente de correlación lineal toma valores cercanos a 0, la correlación es débil.
7. Si r = 1 ó −1, los puntos de la nube están sobre la recta creciente o decreciente. Entre ambas variables hay dependencia funcional.

Criterios de Minimo Cuadrados

Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados: (variable independiente, variable dependiente) y una familia de funciones, se intenta encontrar la función, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger.

Deducción analítica de la aproximación discreta mínimo cuadrática lineal

Sea {\{(x_k,y_k)\}}_{k=1}^n un conjunto de n pares con abscisas distintas, y sea {\{f_j (x)\}}_{j=1}^m un conjunto de m funciones linealmente independientes (en un espacio vectorial de funciones), que se llamarán funciones base. Se desea encontrar una función f(x) de dicho espacio, o sea, combinación lineal de las funciones base, tomando por ello la forma:
f(x)=c_1 f_1 (x)+ c_2 f_2(x)+ . . . + c_m f_m (x) =\sum_{j=1}^m {c_j f_j (x)}
.
Ello equivale por tanto a hallar los m coeficientes: {\{c_j (x)\}}_{j=1}^m . En concreto, se desea que tal función f(x) sea la mejor aproximación a los n pares {(x_k,y_k)}_1^n empleando, como criterio de "mejor", el criterio del mínimo error cuadrático medio de la función f(x) con respecto a los puntos {(x_k,y_k)}_1^n .
El error cuadrático medio será para tal caso:
E_{cm} = \sqrt{\frac{\sum_{k = 1}^n (e_k)^2}{n}}=\sqrt{\frac{1}{n} \sum_{k=1}^n (y_k-f(x_k))^2}=\sqrt{\frac{1}{n} \sum_{k=1}^n (y_k-\sum_{j=1}^m c_j f_j(x_k))^2}
Minimizar el error cuadrático medio es equivalente a minimizar el error cuadrático, definido como el radicando del error cuadrático medio, esto es:
E_c= \sum_{k=1}^n (y_k-\sum_{j=1}^m c_j f_j(x_k))^2
Así, los c_j que minimizan E_{cm} también minimizan E_c, y podrán ser calculados derivando e igualando a cero este último:
\frac{\partial E_c}{\partial c_i}=\sum_{k=1}^n 2(y_k-\sum_{j=1}^m c_j f_j(x_k))(-f_i(x_k))=0
Siendo i=1,2, . . .,m
Se obtiene un sistema de m ecuaciones con m incógnitas, que recibe el nombre de "Ecuaciones Normales de Gauss". Operando con ellas:
\sum_{k=1}^n(\sum_{j=1}^m c_j f_j(x_k) )f_i(x_k) = \sum_{k=1}^n y_k f_i(x_k)
, para i=1,2, . . .,m
\sum_{j=1}^m (\sum_{k=1}^n f_i(x_k) f_j (x_k) )c_j = \sum_{k=1}^n y_k f_i(x_k)
, para i=1,2, . . .,m


Errores de Tipo I y de Tipo II

En un estudio de investigación, el error de tipo I también denominado error de tipo alfa (α) o falso positivo, es el error que se comete cuando el investigador no acepta la hipótesis nula (H_o) siendo ésta verdadera en la población. Es equivalente a encontrar un resultado falso positivo, porque el investigador llega a la conclusión de que existe una diferencia entre las hipótesis cuando en realidad no existe. Se relaciona con el nivel de significancia estadística.
La hipótesis de la que se parte H_0 aquí es el supuesto de que la situación experimental presentaría un «estado normal». Si no se advierte este «estado normal», aunque en realidad existe, se trata de un error estadístico tipo I. Algunos ejemplos para el error tipo I serían:
  • Se considera que el paciente está enfermo, a pesar de que en realidad está sano; hipótesis nula: El paciente está sano.
  • Se declara culpable al acusado, a pesar de que en realidad es inocente; hipótesis nula: El acusado es inocente.
  • No se permite el ingreso de una persona, a pesar de que tiene derecho a ingresar; hipótesis nula: La persona tiene derecho a ingresar.

Errores en el contraste

Una vez realizado el contraste de hipótesis, se habrá optado por una de las dos hipótesis, la hipótesis nula o base H_0\,o la hipótesis alternativa H_1\,, y la decisión escogida coincidirá o no con la que en realidad es cierta. Se pueden dar los cuatro casos que se exponen en el siguiente cuadro:

H_0\, es cierta H_1\, es cierta
Se escogió H_0\, No hay error (verdadero positivo) Error de tipo II (β o falso negativo)
Se escogió H_1\, Error de tipo I (α o falso positivo) No hay error (verdadero negativo)
Si la probabilidad de cometer un error de tipo I está unívocamente determinada, su valor se suele denotar por la letra griega α, y en las mismas condiciones, se denota por β la probabilidad de cometer el error de tipo II, esto es:

\begin{matrix}
P(\mbox{escoger } H_1 | H_0 \mbox{ es cierta} ) = \alpha \\
P(\mbox{escoger } H_0 | H_1 \mbox{ es cierta} ) = \beta  \end{matrix}
En este caso, se denomina Potencia del contraste al valor 1-β, esto es, a la probabilidad de escoger H_1\, cuando esta es cierta
 P(\mbox{escoger }H_1 | H_1 \mbox{ es cierta}) = 1-\beta\,.

Pueba de Hipotesis

Si queremos decidir entre dos hipótesis que afectan a un cierto parámetro de la población, a partir de la información de la muestra usaremos el contraste de hipótesis, cuando optemos por una de estas dos hipótesis, hemos de conocer una medida del error cometido, es decir, cuantas veces de cada cien nos equivocamos.
En primer lugar, veremos cómo se escribirían las hipótesis que queremos contrastar:
  • H0 se llama hipótesis nula y es lo contrario de lo que sospechamos que va a ocurrir (suele llevar los signos igual, mayor o igual y menor o igual)
  • H1 se llama hipótesis alternativa y es lo que sospechamos que va a ser cierto (suele llevar los signos distinto, mayor y menor)
Los contrastes de hipótesis pueden ser de dos tipos:
  • Bilateral: En la hipótesis alternativa aparece el signo distinto.
  • Unilateral: En la hipótesis alternativa aparece o el signo > o el signo <.
Podemos aceptar una hipótesis cuando en realidad no es cierta, entonces cometeremos unos errores, que podrán ser de dos tipos:
  • Error de tipo I: Consiste en aceptar la hipótesis alternativa cuando la cierta es la nula.
  • Error de tipo II: Consiste en aceptar la hipótesis nula cuando la cierta es la alternativa.
Estos errores los aceptaremos si no son muy grandes o si no nos importa que sean muy grandes.
  • alfa: Es la probabilidad de cometer un error de tipo I.
  • beta: Es la probabilidad de cometer un error de tipo II.
De los dos, el más importante es alfa que llamaremos nivel de significación y nos informa de la probabilidad que tenemos de estar equivocados si aceptamos la hipótesis alternativa.
  1. Expresar la hipótesis nula

  2. Expresar la hipótesis alternativa
  3. Especificar el nivel de significancía
  4. Determinar el tamaño de la muestra
  5. Establecer los valores críticos que establecen las de rechazo de las de no rechazo.
  6. Determinar la prueba estadística.
  7. Coleccionar los datos y calcular el valor de la muestra de la prueba estadística apropiada.
  8. Determinar si la prueba estadística ha sido en la de rechazo a una de no rechazo.
  9. Determinar la decisión estadística.
  10. Expresar la decisión estadística en términos del problema.
Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca de las hipótesis. La decisión consiste en rechazar o no una hipótesis en favor de la otra. 

Hipotesis

Una hipótesis puede definirse como una solución provisional (tentativa) para un problema dado. El nivel de verdad que se le asigne a tal hipótesis dependerá de la medida en que los datos empíricos recogidos apoyen lo afirmado en la hipótesis. Esto es lo que se conoce como contrastación empírica de la hipótesis o bien proceso de validación de la hipótesis. Este proceso puede realizarse de uno o dos modos: mediante confirmación (para las hipótesis universales) o mediante verificación (para las hipótesis existenciales). 

Es una proposición que establece relaciones, entre los hechos; para otros es una posible solución al problema; otros mas sustentan que la hipótesis no es mas otra cosa que una relación entre las variables, y por último, hay quienes afirman que es un método de comprobación.

La hipótesis como proposición que establece relación entre los hechos: una hipótesis es el establecimiento de un vínculo entre los hechos que el investigador va aclarando en la medida en que pueda generar explicaciones lógicas del porqué se produce este vínculo.
Tamayo (1989 – 75): afirma que:
"La hipótesis es una proposición que nos permite establecer relaciones entre los hechos. Su valor reside en la capacidad para establecer mas relaciones entre los hechos y explicar el por que se producen".
Arias (1897 – 55) asegura que:
La hipótesis tiene como propósito llegar a la comprensión del porqué entre dos elementos se establece algún tipo definido de relación y establece que la hipótesis:
"Es una proposición respecto a alguno elementos empíricos y otros conceptos y sus relaciones mutuas, que emerge mas allá de los hechos y las experiencias conocidas, con el propósito de llegar a una mayor comprensión de los mismos".

La hipótesis como una posible solución del problema: la hipótesis no es solamente la explicación o comprensión del vínculo que se establece entre los elementos inmersos en un problema, es también el planteamiento de una posible solución al mismo.
Pardinas (1974 – 132):
"La hipótesis es una proposición anunciada para responder tentativamente a un problema".
Deben ser sustentada por Van Dalen (1974 – 170) conduce a una definición en la que se establece que:
"La hipótesis son posibles soluciones del problema que se expresan como generalizaciones o proposiciones. Se trata de enunciados que constan de elementos expresados según un sistema ordenado de relaciones, que pretenden describir o explicar condiciones o sucesos aún no confirmados por los hechos".

Muestreo Sistematico

En un muestreo aleatorio sistemático se elige un individuo al azar y a partir de él, a intervalos constantes, se eligen los demás hasta completar la muestra.
Por ejemplo si tenemos una población formada por 100 elementos y queremos extraer una muestra de 25 elementos, en primer lugar debemos establecer el intervalo de selección que será igual a 100/25 = 4. A continuación elegimos el elemento de arranque, tomando aleatoriamente un número entre el 1 y el 4, y a partir de él obtenemos los restantes elementos de la muestra.

Cuando los elementos de la población están ordenados en fichas o en una lista, una manera de muestrear consiste en
  • Sea $k=\left[\frac{\displaystyle N}{\displaystyle n}\right]$;
  • Elegir aleatoriamente un número m, entre 1 y k;
  • Tomar como muestra los elementos de la lista:
    \begin{displaymath}\left\{e_m,\,e_{m+k}, \,e_{m+2k},\,\dots,e_{m+(n-1)k}\right\}
\end{displaymath}

Esto es lo que se denomina muestreo sistemático. Cuando el criterio de ordenación de los elementos en la lista es tal que los elementos más parecidos tienden a estar más cercanos, el muestreo sistemático suele ser más preciso que el aleatorio simple, ya que recorre la población de un modo más uniforme. Por otro lado, es a menudo más fácil no cometer errores con un muestreo sistemático que con este último. 
Este tipo de muestreo presenta ventajas aparentes sobre el muestreo aleatorio simple, como son:
  1. Es más fácil y rápido de obtener la muestra.
  2. Ninguna sucesión grande de elementos de la lista queda sin representación, a causa de esto en ocasiones el muestreo sistemático puede ser más representativo que muestreo aleatorio simple.
  3. En la práctica es más sencillo llervarlo a cabo y por lo tanto está menos expuesto a los errores de selección que cometen los investigadores de campo.
  4. Se puede poner en práctica sin conocer de antemano el tamaño de la población.
El proceso para la selección de una muestra mediante este método empieza con la determinación del valor . Esta decisión es importanto, ya que si tomamos un valor muy grande la muestra será muy pequeña y si tomamos una muy pequeño la muestra será muy grande.
En la práctica se debe seguir el siguiente procedimiento para seleccionar el intervalo de selección:
  1. Si es conocido, se determina el tamaño de la muestra aproximado para la encuesta y luego se selecciona como la parte entera de .
  2. Si el tamaño poblacional es desconocido no se puede seleccionar exactamente el valor de .

 

Muestreo por Etapas

Etapas del muestreo
Preparación. En esta se define el universo y la población a partir de la cual se va a extraer la muestra.
Muestreo. En esta fase se determina la técnica más apropiada en función del problema, las hipótesis y el diseño. Aquí cabe diferenciar varios tipos de muestras resultado de las distintas depuraciones que se van haciendo a lo largo del proceso de la recogida de los datos. Nos referimos a:
  • Muestra invitada. Son los sujetos de la población a quienes se les invita a participar.
  • Muestra participante . Son los sujetos que aceptan formar parte del estudio.
  • Muestra real. Es la muestra productora de los datos que servirán para el análisis final. La diferencia entre la muestra invitada y la muestra real rara vez aparece especificado en los informes de investigación.
Este proceso de muestreo ha sido esquematizado en la siguiente figura 

Muestreo por cuotas: 
También denominado en ocasiones "accidental". Se asienta generalmente sobre la base de un buen conocimiento de los estratos de la población y/o de los individuos más "representativos" o "adecuados" para los fines de la investigación. Mantiene, por tanto, semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter de aleatoriedad de aquél. En este tipo de muestreo se fijan unas "cuotas" que consisten en un número de individuos que reúnen unas determinadas condiciones, por ejemplo: 20 individuos de 25 a 40 años, de sexo femenino y residentes en Gijón. Una vez determinada la cuota se eligen los primeros que se encuentren que cumplan esas características. Este método se utiliza mucho en las encuestas de opinión.

Muestreo por Conglomeración

Si intentamos hacer un estudio sobre los habitantes de una ciudad, el muestreo aleatorio simple puede resultar muy costoso, ya que estudiar una muestra de tamaño n implica enviar a los encuestadores a npuntos distintos de la misma, de modo que en cada uno de ellos sólo se realiza una entrevista. En esta situación es más económico realizar el denominado muestreo por conglomerados, que consiste en elegir aleatoriamente ciertos barrios dentro de la ciudad, para después elegir calles y edificios. Una vez elegido el edificio, se entrevista a todos los vecinos. 

Cuando en lugar de unidades últimas se eligen grupos, bloques o conjuntos de esas unidades, se dice que el muestreo es por conglomerados. Si en lugar de seleccionar de forma aleatoria personas para medir su capacidad adquisitiva o de consumo se seleccionan, por ejemplo, familias, se dice que el muestreo es por conglomerados. Cuando el conglomerado se corresponde con un área geográfica o zona territorial concreta, como por ejemplo las familias de determinados barrios, el muestreo por conglomerados recibe el nombre de muestreo por áreas.

 Ejemplos de Conglomerados
  • Zona Geográfica
  • Edificio
  • Una institución
Ventajas del muestreo por conglomerados
Es ventajoso, desde el punto de vista de costos, si se pueden agrupar los miembros de la población por conglomerados, en los cuales el criterio de agrupación no sea la variable que se estudia.
No es preciso tener un listado de toda la población, sino de las unidades ( conglomerados) por los que se agruparán.

Muestreo Aleatorio Estratificado

Un muestreo aleatorio estratificado es aquel en el que se divide la población de N individuos, en k subpoblaciones o estratos, atendiendo a criterios que puedan ser importantes en el estudio, de tamaños respectivos N1, ..., Nk,

\begin{displaymath}N= N_1+N_2+\cdots+N_k
\end{displaymath}

y realizando en cada una de estas subpoblaciones muestreos aleatorios simples de tamaño ni $i=1,\dots,k$.
A continuación nos planteamos el problema de cuantos elementos de muestra se han de elegir de cada uno de los estratos. Para ello tenemos fundamentalmente dos técnicas: la asignación proporcional y la asignación optima. 

Ejemplo

Supongamos que realizamos un estudio sobre la población de estudiantes de una Universidad, en el que a través de una muestra de 10 de ellos queremos obtener información sobre el uso de barras de labios.
En primera aproximación lo que procede es hacer un muestreo aleatorio simple, pero en su lugar podemos reflexionar sobre el hecho de que el comportamiento de la población con respecto a este carácter no es homogéneo, y atendiendo a él, podemos dividir a la población en dos estratos:
  • Estudiantes masculinos (60% del total);
  • Estudiantes femeninos (40% restante).
de modo que se repartan proporcionalmente ambos grupos el número total de muestras, en función de sus respectivos tamaños (6 varones y 4 mujeres). Esto es lo que se denomina asignación proporcional.
Si observamos con más atención, nos encontramos (salvo sorpresas de probabilidad reducida) que el comportamiento de los varones con respecto al carácter que se estudia es muy homogéneo y diferenciado del grupo de las mujeres.
Por otra parte, con toda seguridad la precisión sobre el carácter que estudiamos, será muy alta en el grupo de los varones aunque en la muestra haya muy pocos (pequeña varianza), mientras que en el grupo de las mujeres habrá mayor dispersión. Cuando las varianzas poblacionales son pequenãs, con pocos elementos de una muestra se obtiene una información más precisa del total de la población que cuando la varianza es grande. Por tanto, si nuestros medios sólo nos permiten tomar una muestra de 10 alumnos, será más conveniente dividir la muestra en dos estratos, y tomar mediante muestreo aleatorio simple cierto número de individuos de cada estrato, de modo que se elegirán más individuos en los grupos de mayor variabilidad. Así probablemente obtendríamos mejores resultados estudiando una muestra de
  • 1 varón.
  • 9 hembras.
Esto es lo que se denomina asignación óptima.

Tamaño de la Muestra

En estadística el tamaño de la muestra es el número de sujetos que componen la muestra extraída de una población, necesarios para que los datos obtenidos sean representativos de la población.

Objetivos de la determinación del tamaño adecuado de una muestra

  1. Estimar un parámetro determinado con el nivel de confianza deseado.
  2. Detectar una determinada diferencia, si realmente existe, entre los grupos de estudio con un mínimo de garantía.
  3. Reducir costes o aumentar la rapidez del estudio.
Por ejemplo, en un estudio de investigación epidemiológico la determinación de un tamaño adecuado de la muestra tendría como objetivo su factibilidad. Así:
  1. Si el número de sujetos es insuficiente habría que modificar los criterios de selección, solicitar la colaboración de otros centros o ampliar el periodo de reclutamiento. Los estudios con tamaños muestrales insuficientes, no son capaces de detectar diferencias entre grupos, llegando a la conclusión errónea de que no existe tal diferencia.
  2. Si el número de sujetos es excesivo, el estudio se encarece desde el punto de vista económico y humano. Además es poco ético al someter a más individuos a una intervención que puede ser menos eficaz o incluso perjudicial.
El tamaño de una muestra es el número de individuos que contiene.

Una fórmula muy extendida que orienta sobre el cálculo del tamaño de la muestra para datos globales es la siguiente:
n = ( (k^2) * N*p*q) / ( (e^2 * (N-1) )+( (k^2) * p*q))
N: es el tamaño de la población o universo (número total de posibles encuestados).
k: es una constante que depende del nivel de confianza que asignemos. El nivel de confianza indica la probabilidad de que los resultados de nuestra investigación sean ciertos: un 95,5 % de confianza es lo mismo que decir que nos podemos equivocar con una probabilidad del 4,5%.
   Los valores k más utilizados y sus niveles de confianza son:
        k                       1,15    1,28    1,44    1,65    1,96    2       2,58
        Nivel de confianza      75%     80%     85%     90%     95%     95,5%   99%
(Por tanto si pretendemos obtener un nivel de confianza del 95% necesitamos poner en la fórmula k=1,96)
e: es el error muestral deseado. El error muestral es la diferencia que puede haber entre el resultado que obtenemos preguntando a una muestra de la población y el que obtendríamos si preguntáramos al total de ella. Ejemplos:
   Ejemplo 1: si los resultados de una encuesta dicen que 100 personas comprarían un producto y tenemos 
   un error muestral del 5% comprarán entre 95 y 105 personas.
   Ejemplo 2: si hacemos una encuesta de satisfacción a los empleados con un error muestral del 3% y el 
   60% de los encuestados se muestran satisfechos significa que entre el 57% y el 63% (60% +/- 3%) del 
   total de los empleados de la empresa lo estarán.
   Ejemplo 3: si los resultados de una encuesta electoral indicaran que un partido iba a obtener el 55% 
   de los votos y el error estimado fuera del 3%, se estima que el porcentaje real de votos estará en 
   el intervalo 52-58% (55% +/- 3%).
p: proporción de individuos que poseen en la población la característica de estudio. Este dato es generalmente desconocido y se suele suponer que p=q=0.5 que es la opción más segura. q: proporción de individuos que no poseen esa característica, es decir, es 1-p. n: tamaño de la muestra (número de encuestas que vamos a hacer).
Altos niveles de confianza y bajo margen de error no significan que la encuesta sea de mayor confianza o esté más libre de error necesariamente; antes es preciso minimizar la principal fuente de error que tiene lugar en la recogida de datos. Para calcular el tamaño de la muestra suele utilizarse la siguiente fórmula:
Otra fórmula para calcular el tamaño de la muestra es:
n=(Nσ^2 Z^2)/((N-1) e^2+σ^2 Z^2 ) Donde: n = el tamaño de la muestra.
N = tamaño de la población.
σ= Desviación estándar de la población, que generalmente cuando no se tiene su valor, suele utilizarse un valor constante de 0,5. Z = Valor obtenido mediante niveles de confianza. Es un valor constante que, si no se tiene su valor, se lo toma en relación al 95% de confianza equivale a 1,96 (como más usual) o en relación al 99% de confianza equivale 2,58, valor que queda a criterio del encuestador. e = Límite aceptable de error muestral que, generalmente cuando no se tiene su valor, suele utilizarse un valor que varía entre el 1% (0,01) y 9% (0,09), valor que queda a criterio del encuestador.

La fórmula anterior se obtiene de la fórmula para calcular la estimación del intervalo de confianza para la media:
X ̅-Z σ/√n √((N-n)/(N-1))≤μ≤X ̅+Z σ/√n √((N-n)/(N-1))

En donde el error es:
e=Z σ/√n √((N-n)/(N-1))
Elevando al cuadrado el error se tiene: 〖(e)〗^2=(Z σ/√n √((N-n)/(N-1)))^2 e^2=Z^2 σ^2/n (N-n)/(N-1)
Multiplicando fracciones: e^2=(〖Z^2 σ〗^2 (N-n))/n(N-1)
Eliminando denominadores: e^2 n(N-1)=〖Z^2 σ〗^2 (N-n)
Eliminando paréntesis: e^2 nN-e^2 n=〖Z^2 σ〗^2 N-〖Z^2 σ〗^2 n
Transponiendo n a la izquierda: e^2 nN-e^2 n+〖Z^2 σ〗^2 n=〖Z^2 σ〗^2 N
Factor común de n:
n(e^2 N-e^2+Z^2 σ^2 )=〖Z^2 σ〗^2 N
Despejando n:
n=(〖Z^2 σ〗^2 N)/(e^2 N-e^2+Z^2 σ^2 )
Ordenando se obtiene la fórmula para calcular el tamaño de la muestra:
n=(Nσ^2 Z^2)/((N-1) e^2+σ^2 Z^2 )
Ejemplo ilustrativo: Calcular el tamaño de la muestra de una población de 500 elementos con un nivel de confianza del 99%
Solución: Se tiene N=500, para el 99% de confianza Z = 2,58, y como no se tiene los demás valores se tomará σ=0,5, y e = 0,05.
Reemplazando valores en la fórmula se obtiene:
n=(Nσ^2 Z^2)/((N-1) e^2+σ^2 Z^2 )
n=(500∙〖0,5〗^2 〖∙2,58〗^2)/((500-1) 〖(±0,05)〗^2+〖0,5〗^2∙〖2,58〗^2 )=832,05/2,9116=285,77=286

Muestra

En estadística una muestra estadística (también llamada muestra aleatoria o simplemente muestra) es un subconjunto de casos o individuos de una población estadística.
Las muestras se obtienen con la intención de inferir propiedades de la totalidad de la población, para lo cual deben ser representativas de la misma. Para cumplir esta característica la inclusión de sujetos en la muestra debe seguir una técnica de muestreo. En tales casos, puede obtenerse una información similar a la de un estudio exhaustivo con mayor rapidez y menor coste (véanse las ventajas de la elección de una muestra, más abajo).
Por otra parte, en ocasiones, el muestreo puede ser más exacto que el estudio de toda la población porque el manejo de un menor número de datos provoca también menos errores en su manipulación. En cualquier caso, el conjunto de individuos de la muestra son los sujetos realmente estudiados.
El número de sujetos que componen la muestra suele ser inferior que el de la población, pero suficiente para que la estimación de los parámetros determinados tenga un nivel de confianza adecuado. Para que el tamaño de la muestra sea idóneo es preciso recurrir a su cálculo.

Muestra:
"Se llama muestra a una parte de la población a estudiar que sirve para representarla". Murria R. Spiegel (1991). 
"Una muestra es una colección de algunos elementos de la población, pero no detodos". Levin & Rubin (1996). 
"Una muestra debe ser definida en base de la población determinada, y lasconclusiones que se obtengan de dicha muestra solo podrán referirse a lapoblación en referencia", Cadenas (1974). 
Ejemplo
El estudio realizado a 50 miembros del Colegio de Ingenieros delEstado Cojedes.El estudio de muestras es más sencillo que el estudio de la población completa;cuesta menos y lleva menos tiempo.Por último se aprobado que el examen de una población entera todavía permite la aceptación de elementos defectuosos,por tanto, en algunos casos, el muestreo puede elevar el nivel de calidad. Una muestra representativa contiene las características relevantes de lapoblación en las mismas proporciones que están incluidas en tal población.Los expertos en estadística recogen datos de una muestra. Utilizan esta información para hacer referencias sobre la población que está representada porla muestra. En consecuencia muestra y población son conceptos relativos. Una población es un todo y una muestra es una fracción o segmento de ese todo.

Grados de Libertad

En estadística, grados de libertad es un estimador del número de categorías independientes en una prueba particular o experimento estadístico. Se encuentran mediante la fórmula n-r, donde n=número de sujetos en la muestra (también pueden ser representados por k-r, donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales) y r es el número de sujetos o grupos estadísticamente dependientes.
Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.
Un ejemplo aclara el concepto. Supongamos que
X_1,\dots,X_n\, son variables aleatorias, cada una de ellas con media \mu, y que
\overline{X}_n={X_1+\cdots+X_n \over n}
es la "media muestral". Entonces las cantidades
X_i-\overline{X}_n\,
son los residuos, que pueden ser considerados estimaciones de los errores X_i - \mu. La suma de los residuos (a diferencia de la suma de los errores, que no es conocida) es necesariamente 0,
\sum_{i=1}^n({X_i}-\overline{X}_n)=\sum_{i=1}^n{X_i}-n\overline{X}_n=\sum_{i=1}^n{X_i}-\sum_{i=1}^n{X_i}=0
ya que existen variables con valores superiores e inferiores a la media muestral. Esto también significa que los residuos están restringidos a encontrarse en un espacio de dimensión n-1 (en este ejemplo, en el caso general a n-r) ya que, si se conoce el valor de n-1 de estos residuos, la determinación del valor del residuo restante es inmediata. Así, se dice que "el error tiene n-1 grados de libertad" (el error tiene n-r grados de libertal para el caso general)..