jueves, 8 de noviembre de 2007

LA APLICACIÓN DE LA ESTADÍSTICA NO PARAMÉTRICA EN LA ADMINISTRACIÓN

INTRODUCCIÓN

Uno de los problemas más difíciles para el principiante y para el investigador experimentado, es decidir cuál de la pruebas estadísticas es la más adecuada para analizar un conjunto de datos. La aplicación de la estadística en el análisis de datos es muy amplia y las áreas en las que se aplica son diversas, desde las ciencias exactas hasta las ciencias sociales. La selección de la prueba estadística necesaria para el caso, depende de varios factores, en primer lugar se debe saber cuál es la escala con la que se están midiendo los datos que se analizarán, pues no se puede aplicar la misma prueba estadística para el caso en que la variable de interés sea el peso de un producto que cuando lo es la profesión del usuario de un producto, es por esto que la primera parte de este artículo se dedicará a las diferentes escalas con las que se pueden medir los datos que se manejan.

Las pruebas estadísticas con las que se encuentran más familiarizados los investigadores y a las que se dedica la mayor parte de los libros de texto, es la estadística paramétrica, las pruebas estadísticas correspondientes a ella, se aplican principalmente a datos de tipo cuantitativo y cada una de ellas tiene algunos supuestos; en la mayor parte de ellas uno de los supuestos se refiere a la normalidad de la población de la cual fue extraída la muestra, si no se cumple este supuesto, sobre todo en las pruebas en las cuales la muestra es de un tamaño menor de 30, la conclusión a la que se llegue podría estar equivocada, en estos casos y cuando los datos que se manejan no son cuantitativos, se podría aplicar una prueba estadística correspondiente a la estadística no paramétrica, como éstas no suelen ser muy conocidas, se ha realizado este artículo con el propósito de dar a conocerlas, ya que, aunque tienen limitaciones, son muy sencillas de aplicar y muy útiles.
ESCALAS DE MEDICIÓN DE LAS VARIABLES

En cualquier análisis estadístico que se haga, se manejan datos que provienen de la medición de una variable o variables seleccionadas en el estudio. Las variables son las características que interesan en los sujetos u objetos que se estudian, por ejemplo podría ser la edad de los empleados de una empresa, el monto de las ventas de determinado artículo, la ocupación de los clientes de cierto negocio, etc. Para obtener los datos relativos a las variables de interés, se requiere hacer una medición, como podría ser preguntar las edades de los empleados o la ocupación de los clientes, pero como puede apreciarse, los datos que se obtendrían serían de diferente tipo, pues para la primera variable, serían números y para la segunda categorías. La medición la llevamos a cabo en el momento en que le asignamos un número correspondiente a la edad o una categoría correspondiente a la ocupación1. Resulta obvio que en este caso, no estamos midiendo de la misma manera ambas variables, pero además de que las mediciones nos arroja valores de estos dos tipos, es posible medir las variables con otras escalas diferentes, lo cual depende de sus características; a continuación se hará una breve explicación de las diferentes escalas con las que se pueden medir las variables.
Escala nominal
Las variables que solamente se pueden medir con esta escala, son los cualitativas, también llamados categóricas, en ellas se pueden encontrar diferentes categorías, como por ejemplo, la variable sexo puede tomar dos valores que son: masculino y femenino, para que las categorías de clasificación sean útiles, deben ser mutuamente excluyentes, complementarias y exhaustivas. En cada una de ellas se puede obtener la frecuencia.

Escala ordinal
Las variables que se pueden medir con esta escala, son de tipo cuantitativo y en ésta, las variables pueden tomar diferentes valores, de tal manera que es posible ordenar estos valores en forma ascendente o descendente, pero no se puede saber si la diferencia entre dos valores es la misma o diferente a la diferencia entre otros dos valores.

Se usa cuando se pueden detectar diferentes grados del valor de una variable y que los datos recopilados a partir de ella, se pueden ordenar por rangos. Por ejemplo, si se le presentan tres refrescos diferentes a una persona y se le pide que exprese su preferencia utilizando una escala del uno al tres, esto lo estamos evaluando en una escala ordinal, pues se puede suponer que hay un orden en los resultados, pero la diferencia en las puntuaciones no tiene importancia, pues no se puede saber si la diferencia entre un tres y un dos es la misma que entre un uno y un dos.
Otro ejemplo lo tenemos cuando comparamos dureza de materiales y decimos que A es más duro que B si A raya a B.

Escala de intervalo
Cuando además de distinguir diferencias en grado, en la propiedad de un objeto, también se pueden distinguir diferencias iguales entre objetos, se tiene una medida de intervalo. Una forma de distinguir variables que se miden en esta escala, es que el cero no indica que hay ausencia de la variable. Un ejemplo típico de una variable que se mide en esta escala, es la temperatura cuando se mide en grados Fahrenheit o en grados Centígrados, pues éstas como es ya conocido, no son escalas absolutas, sino relativas. Sabemos que la diferencia entre 30º C y 35º C es la misma que entre 45º C y 50º C y si se dice que un líquido se encuentra a 0º C, no significa que no tiene temperatura.

Escala de razón o proporcional
En esta escala se cumplen todas las características que en las anteriores, además de que el cero sí indica una ausencia de la variable, por ejemplo, si la variable son los gastos semanales de una persona y nos dice que no tuvo gastos durante la semana, entonces es válido decir que sus gastos semanales fueron iguales a cero. Hay muchas variables de interés en la economía y administración que se evalúan en una escala de razón, otra podría ser la antigüedad de una persona en una empresa; si sabemos de alguien que apenas va a entrar a trabajar ahí y no tiene antigüedad se puede decir que su antigüedad es igual a cero años o meses.
ELECCIÓN DE UNA PRUEBA ESTADÍSTICA

Esta tarea puede resultar desde sencilla hasta difícil, dependiendo del número de variables que se deseen incluir en el estudio. En este artículo, solamente se incluirán pruebas que se aplican a una o dos variables, si se tienen más variables se podrían aplicar varias pruebas. Lo primero que se debe hacer es establecer el objetivo o propósito de la prueba para la variable o variables seleccionadas y las limitaciones que se pudieran tener en cuanto a los supuestos que se deben cumplir en las pruebas paramétricas. Si después de considerar esto, la prueba no se considera robusta, entonces es más conveniente buscar una prueba de la estadística no paramétrica y que resulte más confiable. Antes de pasar a revisar algunas de las pruebas con las que se cuenta en la estadística no paramétrica, se hará una revisión de los supuestos que generalmente se tienen que cumplir en algunas de las pruebas paramétricas más utilizadas.

Dentro de las pruebas paramétricas, se tienen para muestras grandes y para muestras pequeñas. Un supuesto que se aplica a ambas es que la muestra que se toma debe haber sido seleccionada en forma aleatoria o probabilística. En las pruebas paramétricas de muestra pequeña, se requiere el supuesto de que las muestras fueron extraídas de una población con distribución normal y cuando se trata de dos o más muestras también se requiere una prueba de igualdad de varianzas. Existen pruebas estadísticas por medio de las cuales se podría comprobar esto, sin embargo suele no dársele importancia a esto y se pasa por alto. El análisis de varianza, también se basa en el supuesto de normalidad de las poblaciones y en el de que sus varianzas son iguales.

En las pruebas en las que se tienen menos supuestos, es en las de muestra grande, las cuales se pueden aplicar sin saber o comprobar si la población o poblaciones eran normales, estas pruebas se dice que son robustas, porque no es necesario que se cumpla dicho supuesto. Cuando la prueba que se requiere no es robusta, no es necesario correr el riesgo de estar equivocados en las conclusiones, en ellos. En cambio, se dispone de muchas pruebas estadísticas no paramétricas que tienen una aplicación semejante a las paramétricas de muestra pequeña en las que se tienen menos supuestos.
PRUEBAS NO PARAMÉTRICAS

En estas técnicas, solamente se necesitan conocimientos elementales de matemáticas, pues los métodos son relativamente más sencillos que en las pruebas paramétricas. En estas pruebas, también se tienen supuestos, pero son pocos y no tienen que ver con la naturaleza de la distribución de la población, por lo que a estas técnicas también se les conoce como de libre distribución.

Una limitación que tienen es que no son aplicables a casos en los que se desean manejar muchas variables al mismo tiempo, para estos casos, sí se requeriría una prueba paramétrica; lo que sí se requiere y en general es el supuesto que se debe cumplir en la mayoría de las pruebas no paramétricas para confiar en ellas, es que la muestra haya sido seleccionada en forma probabilística.

Además del problema de los supuestos, algunos experimentos o estudios que se deseen realizar producen respuestas que no es posible evaluar con la escala que tiene más ventajas, por ejemplo, cuando los datos solamente se encuentran en una escala ordinal como cuando se evalúan las habilidades de los vendedores, o el atractivo de cinco modelos de casas, o la preferencia por sopas de cinco marcas diferentes. En general aspectos como la habilidad o preferencias de una alimento o producto, solamente los podemos ordenar; resultados de este tipo se presentan frecuentemente en estudios de mercado y en otros del campo de las ciencias sociales.

Las pruebas que se mencionarán son las que se podrían necesitar con mayor frecuencia, se mencionarán sus principales características y aplicaciones, además de la prueba paramétrica a la que podrían substituir en caso necesario, así como los supuestos en los que se basa la prueba, que como se podrá ver, son menos rigurosos que para las pruebas paramétricas.
1. Prueba de signos de una sola muestra
Se cree que esta prueba es la más antigua dentro de la estadística no paramétrica, pues se reporta en la literatura desde 1710 por Arbuthnott.2
Esta prueba corresponde a la prueba de media de una sola muestra y se recurre a ella cuando la muestra es de menos de 30 elementos y no se puede sostener el supuesto de normalidad de la población.

Se le llama prueba del signo porque la información contenida en la muestra seleccionada se puede transformar en un conjunto de signos más y menos; y cuando se hace la prueba no se hace uso de la magnitud de los valores de la muestra, sino solamente se consideran los signos.
Ésta se aplica cuando se muestrea una población simétrica continua de tal manera que la probabilidad de que una valor sea mayor que la media o menor que la media es de un medio. Para esta prueba se utiliza la distribución binomial.

En esta prueba se tiene la hipótesis nula H0 : m = m0 contra la alternativa pertinente, pudiendo ser ésta de uno o dos extremos. Los supuestos que se deben tomar en cuenta para aplicarla, son los siguientes: se tiene una muestra aleatoria que proviene de una población con mediana desconocida, la variable de interés se mide en escala ordinal o más fuerte y esta misma variable es de naturaleza continua .Cuando la variable se mide en escala ordinal, las hipótesis se referirán a la mediana y no a la media.

2. Prueba U de Mann- Whithey para muestras aleatorias independientes
Cuando se quieren comparar las ubicaciones relativas de dos poblaciones o cuando se quiere determinar si pertenecen a una misma población, dando por hecho que se trabaja con muestras aleatorias independientes, se utiliza esta prueba propuesta por Mann y Whitney en 1947.3
Ésta es una alternativa a la prueba t de Student de dos muestras para medias. Se puede recurrir a esta prueba no paramétrica cuando el supuesto de normalidad no se cumple o el relativo a la igualdad de varianzas poblacionales.

El procedimiento que se sigue en esta prueba, consiste en unir las dos muestras y posteriormente ordenar sus valores que toman independientemente de la muestra a que pertenecen para que después se les asignen los rangos a la muestra conjunta. Luego se calcularán para cada muestra, la suma de los rangos que le correspondan y estas sumas se utilizan para obtener la estadística de prueba.

Para realizar esta prueba, usando sus rangos correspondientes, se puede utilizar la distribución binomial cuando las muestras son pequeñas, o también se puede utilizar una tabla que ha sido elaborada especialmente para esta prueba, llamada tabla U; la cual fue hecha basándose en la distribución binomial. Cuando los tamaños de muestra son de 10 o mayores, se puede utilizar la distribución normal estándar. Los supuestos en los que se basa, son: que cada una de las muestras haya sido obtenida de una distribución aleatoria continua, que las muestras sean independientes y que la escala de medición empleada sea por lo menos la ordinal.

3. Prueba H de suma de rangos o prueba de Kruskal-Wallis para comparar k muestras independientes
También se conoce esta prueba como prueba H de Kruskal-Wallis para diseños completamente aleatorizados.

Cuando se tiene interés o necesidad de probar una hipótesis nula en la que se afirma que k tratamientos son iguales o que k muestras aleatorias independientes provienen de poblaciones idénticas, siendo k > 2, la prueba estadística que se realizaría dentro de la estadística paramétrica sería el análisis de varianza de un sentido y para la prueba se utilizaría la distribución F; sin embargo, cuando la escala es ordinal o se desconfía del supuesto de que las muestras provienen de poblaciones con forma de distribución normal, se puede utilizar esta prueba para muestras independientes. La hipótesis alternativa sería que al menos dos poblaciones tienen una distribución diferente.

Esta prueba solamente se puede usar cuando el tamaño de cada muestra sea mayor o igual a cinco. Se puede afirmar que el procedimiento que se realiza en esta prueba es una extensión del utilizado en la prueba U de Mann-Withney. Para proceder a realizar esta prueba, se utiliza la distribución ji cuadrada con (k-1) grados de libertad, siendo k el número de muestras con las que se trabaja.

Pruebas de aleatoriedad
Muchos métodos de tipo inferencial, se basan en el supuesto de que se manejan muestras aleatorias. Cuando se tiene una aplicación en la que es difícil saber si esta suposición se justifica o cuando no es posible seleccionar una muestra aleatoria por contar solamente con cierta información; se tienen dentro de las técnicas no paramétricas varios métodos que hacen posible juzgar la aleatoriedad sobre la base del orden o secuencia en el que se realizan las observaciones o en el que los puntajes u observaciones fueron obtenidos originalmente. Lo que se analiza es si aparecen patrones de los que se sospeche no sean aleatorios.

En las variables de tipo nominal, una corrida es una sucesión de letras u otro símbolo idénticos que van seguidos o precedidos de otra letra, símbolo, diversas letras o de ninguna, si se encuentra en el inicio o al final de una sucesión.4 Por ejemplo, cuando se lanza una moneda diez veces y si representamos por A el águila y con S el sol, se puede presentar la siguiente sucesión de resultados:
A SS AAA S AA S
1 2 3 4 5 6
Aquí se presentan seis corridas o rachas. Esta prueba puede aplicarse a variables de tipo cualitativo y cuantitativo, en el segundo caso, se utiliza la mediana como medida de referencia y a los valores que caigan arriba de ella se les asigna un signo positivo (+) o una letra como por ejemplo la A y a los que caigan abajo de ella, se les asigna el signo negativo (-) o una letra distinta, como por ejemplo la B y a partir de los signos o letras asignados, se identifican las rachas o corridas.

En estos casos, el número de corridas que se tiene es una buena indicación de una posible falta de aleatoriedad, que se presentaría con pocas o demasiadas corridas. Aquí se prueba aleatoriedad en el proceso de generación de una serie de observaciones de una variable aleatoria que sólo toma dos valores y la probabilidad de cada uno de ellos es 0.5, por lo cual la prueba se basa en una distribución binomial con probabilidad igual a 0.5. Se tiene una tabla realizada a partir de la distribución mencionada, mediante la que se hace la prueba de aleatoriedad de rachas en la que se encuentran los valores críticos del número de rachas tomando en cuenta el número de elementos de una clase (n1) y el número de elementos de la otra clase (n2). Cuando n1 y n2 son mayores que 20, la distribución muestral se puede determinar en forma muy aproximada con una distribución de probabilidad normal.

Medidas de asociación
Cuando se tienen observaciones formadas por una pareja de valores a partir de dos variables, surge la pregunta o necesidad de conocer acerca de si las variables estarán o no relacionadas y qué tan fuerte es esa relación. Para saber esto, generalmente se piensa en obtener un coeficiente de correlación que nos indique el grado de relación lineal entre las variables, pero debe tenerse cuidado de no interpretarlo como una medida de la relación causal entre las variables y también tomar en cuenta que si la relación no es lineal, la correlación no detecta la relación existente entre las variables.

En la estadística paramétrica se puede calcular el coeficiente de correlación de Pearson, que se puede aplicar a variables que se miden en escala de intervalo o mayor, pero bajo el supuesto de que los datos se distribuyen en base a una distribución normal bivariada, cuando esto no se cumple o cuando la escala de medida solamente es ordinal, es preferible usar una medida de asociación de las que se tienen en la estadística no paramétrica.

Un coeficiente de correlación que se basa en rangos y que es muy utilizado, es el de Sperman rs, éste resultado es muy fácil de calcular porque su cálculo es semejante al de correlación que generalmente se usa. Sperman desarrolló un trabajo en 1940 donde presentó este coeficiente que en lugar de utilizar los valores de las variables, utilizaba los rangos asociados a ellas, mediante éste se tiene una medida de asociación y además permite probar hipótesis; el único supuesto que tiene es que la escala de medida de la variable es al menos ordinal.5
Además de este coeficiente que nos permite medir la asociación entre dos variables, hay otras medidas de asociación para aquéllos casos en los que la escala con la que se miden las variables es de tipo nominal.

CONCLUSIÓN

Después de conocer para qué nos pueden servir las pruebas estadísticas no paramétricas y los supuestos que tienen, así como algunas pruebas paramétricas y los supuestos que se deben cumplir en ellas, se puede apreciar que si no se tiene información acerca del cumplimiento de ellos o si no se hacen las pruebas estadísticas pertinentes para ello, sería preferible recurrir a las no paramétricas, también llamadas de distribución libre, pues en ninguna de ellas se contempla el supuesto de que la distribución de la población tenga determinadas características. Tal vez el problema al que se enfrenten algunos los estudiantes o investigadores, sea el desconocimiento acerca de la estadística no paramétrica o la poca importancia que se le da al cumplimiento de los supuestos en los que se basan las pruebas paramétricas.

Aunque las pruebas correspondientes a la estadística no paramétrica no sean muy conocidas, son relativamente sencillas, pues la mayoría de ellas se basan en rangos en lugar de en valores de la variable o variables; en este artículo solamente se dio un panorama acerca de los casos a los que se podrían aplicar, realmente su aplicación podría ser muy amplia dentro del campo administrativo, sobre todo cuando las variables de interés se miden en una escala entre la nominal y la de intervalo, como suele suceder en los estudios en mercadotecnia y de recursos humanos.