Ir al contenido principal

Evaluación de las predicciones

Nuestro objetivo al aplicar las técnicas de predicción es reducir la incertidumbre sobre los valores desconocidos de una variable. Las posibilidades son muy diversas, basadas en diferentes planteamientos y con distintos niveles de sofisticación, pero no disponemos de un método infalible. De ahí la necesidad de completar los estudios de predicción con un análisis de su fiabilidad.

En definitiva, una aproximación realista a la predicción debe contemplar sus limitaciones y riesgos, asumiendo que los posibles errores o aciertos que conlleve podrán justificarse con errores argumentos estadísticos.

Situémonos en la etapa de reflexión: hemos anticipado la cifra de ventas de nuestro producto para el futuro cercano y, conociendo de qué no podremos justificar nuestras previsiones aludiendo a la superstición, decidimos analizar su calidad.

Podríamos comenzar esta reflexión con un planteamiento del tipo ¿qué garantías tienen nuestras previsiones?

Está claro que en ningún caso podremos estar seguros de que realmente adivinamos valores de una variable o anticipamos el futuro. Sin embargo, parece lógico pensar que, si disponemos de buenos modelos teóricos y hemos realizado (con datos de buena calidad) ajustes fiables de los mismos, podremos llegar a previsiones que merecerán un nivel alto de confianza.

Comencemos analizando el primero de estos aspectos, la validez conceptual.

Validez conceptual

Nos interesarán desde el punto de vista estadístico únicamente las predicciones basadas en modelos, de modo que exista algún supuesto teórico o hipótesis que avale nuestras actuaciones.

Si la información que disponemos parece confirmar alguna hipótesis económica, plantearíamos el correspondiente modelo para proceder a la estimación. Sin embargo, somos conscientes de que los errores y lagunas de información económica pueden llegar a afectar este planteamiento, encontrándonos en ocasiones con que no podemos acceder a las cifras de la hipotética causa o bien que éstas no son muy fiables.

Es importante recordar además que los modelos deben ser correctamente especificados, es decir, incluir en medida de lo posible todas las variables causales y dotarlo de la estructura  conceptualmente más correcta. En el caso de que se trate de series temporales estos requisitos incluirán también una identificación de los componentes que permita aproximar la tendencia y conocer si existen ciclos o estacionalidad.

Tras la etapa conceptual, entraríamos en el ámbito de estimación del modelo que proporciona información de interés sobre su fiabilidad.

Fiabilidad

Como hemos visto en entradas anteriores, es posible aproximar la capacidad explicativa de un modelo, pareciendo razonable que cuanto mayor sea ésta, más fiabilidad nos merecerá de cara a la realización de previsiones.

La medida habitual para evaluar la bondad del ajuste es el coeficiente de determinación, que será por tanto un buen indicador de la fiabilidad de las previsiones. Sin embargo, debemos tener presente que esta medida ha sido calculada a partir de la información disponible, por lo que no puede garantizarse su validez cuando nos alejemos del recorrido de nuestra distribución. Así, en el ejemplo propuesto anteriormente, se llegaba a una predicción de ventas negativas, resultado incoherente que viene originado no por la inadecuación del modelo (que conceptualmente es coherente y presenta un coeficiente de determinación del 95%) sino por su aplicación indiscriminada, olvidando que fuera del recorrido no está garantizada la relación de causalidad.

Además de acompañar cada predicción de una medida de su fiabilidad es aconsejable proporcionar márgenes de error o equivalentemente márgenes de confianza, entre cuyos extremos se encontrará casi con total seguridad el valor verdadero.

El procedimiento de análisis de la fiabilidad de las previsiones que acabamos de describir puede presentar problemas cuando trabajamos con datos en serie temporal. Los inconvenientes se derivan fundamentalmente del propio concepto de tiempo, que aparece en estos modelos no como causa, sino como referencia, y de los distintos componentes que actúan en una serie.

La utilización del coeficiente de determinación puede conducir a modelos temporales aparentemente muy fiables, pero con escasa capacidad predictiva, resultando conveniente en estos casos un análisis detallado de la magnitud estudiada y su evolución, que permita detectar irregularidades o cambios de tendencia.

Además, la realización de previsiones deberá basarse en variables reales (libres de componentes estacionales cíclicos o inflacionistas), que proporcionarán una mejor aproximación del fenómeno estudiado en cada caso, y en consecuencia, ajustes más fiables.

Este procedimiento resulta ventajoso cuando los valores del índice corrector (deflactor, índice de variación estacional u otros) sean conocidos, conduciendo a previsiones finales del tipo:

Valor real previsto X Índice corrector

Conviene destacar, sin embargo, que cuando llevamos a cabo previsiones de futuro, los índices necesarios para transformar una variable real deberán también ser estimados. Como consecuencia, no es posible en este caso asignar un nivel de bondad a la estimación final, sino que dispondremos de un coeficientes de fiabilidad separadamente para las estimaciones de la variable real, y para el índice del que se trate en cada caso.

Además de las consideraciones anteriores, conviene tener presente que cuando se efectúa un ajuste para un conjunto de años, la mejor predicción no será necesariamente la media, ya que a menudo resultan más informativas las últimas observaciones.

Y ahora toca la repasar la utilización del modelo estimado.

Utilización del modelo estimado

Los peligros de la aplicación de modelos no se limitan a la extrapolación, proceso que en ocasiones resulta menos arriesgado que la interpolación.

Hay que tener cuidado con datos de corte transversal, ya que el comportamiento sea irregular dentro del recorrido de la variable y, sin embargo, estable en las proximidades de los valores extremos.

Comentarios

Entradas populares de este blog

Ojivas

Recibe el nombre de ojiva un gráfico que, mediante el trazado de una línea, muestra las frecuencias acumuladas de la serie. Si representa frecuencias absolutas acumuladas se llama simplemente ojiva, y si representa los porcentajes de las frecuencias relativas acumuladas se llama ojiva porcentual. Para representar una ojiva, se marcan en el eje de abscisas los valores de la variable y en el eje de ordenadas las frecuencias acumuladas. Se utiliza para representar series atemporales de frecuencia. Ejemplo Vamos a representar una ojiva de la serie correspondiente a los complementos salariales (dietas, desplazamientos...) expresados en euros de los 130 empleados y empleadas de una empresa, que aparecen reflejados en la siguiente tabla. Complementos N.º de empleados [50-60) 16 [60-70) 20 [70-80) 32 [80-90) 28 [90-100) 20 [100-110) 10 [110-120) 4 130

Polígonos de frecuencias

Un polígono de frecuencias es un gráfico que se obtiene a partir de un histograma, uniendo los puntos medios de los techos, o bases superiores, de los rectángulos. Se acostumbra a prolongar el polígono hasta puntos de frecuencia cero. Un polígono de frecuencia permite ver con gran claridad las variaciones de la frecuencia de una clase a otra. Son muy útiles cuando se pretende comparar dos o más distribuciones, ya que, así como es difícil representar dos o más histogramas en un mismo gráfico, resulta muy sencillo hacerlo con dos o más polígonos de frecuencias. La suma de las áreas de los rectángulos de un histograma de amplitud constante, es igual al área limitada por el polígono de frecuencias y el eje X. Ejemplo Vamos a construir a partir del histograma explicado en la entrada anterior , su correspondiente polígono de frecuencias. Ejemplo de polígono de frecuencias Interpretación de un polígono de frecuencias El polígono de frecuencias resume, en una sola lín

Ejemplo de tabla de frecuencia para una variable cuantitativa continua

Cuando el estudio se refiere a una variable cuantitativa continua, como el peso, la talla, velocidad, etc., o cuando tratándose de una variable cuantitativa discreta, el número de observaciones es muy grande y la cantidad de valores diferentes que toma la variable también, se recurre a agrupar los datos en intervalos. Cada uno de estos intervalos recibe el nombre de clase. Por ejemplo: En un estudio realizado sobre la estatura de cuarenta alumnos de un curso (variable cuantitativa continua, puesto que entre dos estaturas distintas puede haber un alumno que tenga una estatura intermedia), se han obtenido los siguientes resultados en metros: 1,55 1,66 1,69 1,63 1,64  1,67 1,63 1,56 1,62 1,68 1,68 1,62 1,66 1,62 1,69  1,56 1,57 1,60 1,65 1,64 1,67 1,69 1,63 1,64 1,60  1,62 1,63 1,71 1,62 1,72 1,61 1,61 1,64 1,60 1,70  1,76 1,65 1,65 1,68 1,66 Para su estudio, se procede a la agrupación de los datos en intervalos o clases. Primero se observa cuáles son los valores