viernes,3 diciembre 2021
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioOpiniónLos secretos de cocina de los masterchef de la predicción macroeconómica
Predicción económica

Los secretos de cocina de los masterchef de la predicción macroeconómica

Futurolandia
Desde una pura intuición, a un simple algoritmo, una aplicación automática de Inteligencia Artificial o un complejo modelo económetrico con cientos o miles de ecuaciones. Las herramientas son múltiples, los ingredientes diversos y las recetas a gusto del "cocinero-predictor". Los secretos de cocina de la predicción económica no son fácilmente accesibles para el usuario, pero es útil tener una idea, aunque sea superficial, de los procesos que hay detrás de cada apuesta de futuro.

En el caso más simple, cualquiera puede tener una opinión-predicción de cuál será el crecimiento del PIB de un país. Como en una casa de apuestas, cada tasa de crecimiento "se paga" a un precio mayor o menor según la probabilidad subjetiva de acierto respecto a otras predicciones alternativas. Detrás de muchas predicciones macroeconómicas puede estar sólo (¡y no es despreciable!) la solvencia, la experiencia y la intuición de una persona o grupo de expertos.

La denominada predicción subjetiva es la base de muchas encuestas a expertos o tomadores de decisiones, que permite utilizar sus resultados como una guía, al menos a nivel cualitativo, de la confianza que se deposita en una mejora o empeoramiento del ritmo de crecimiento del PIB (o la inversión , el consumo, las exportaciones o el empleo) durante los próximos meses.

Un ejemplo muy característico y de amplia difusión mundial son los Business Climate del Instituto IFO de Investigaciones  Económicas de Munich (http://www.cesifo-group.de), obtenidos mediante una encuesta mensual a miles de empresas sobre situación actual y expectativas a seis meses (favorable, estable o desfavorable). Otro ejemplo de alta utilización se encuentran en los Panel de Expertos y sus consensos y medidas de discrepancias en las predicciones económicas a tres meses o anuales  (PIB, empleo, tipos de interés,…) de una muestra de centros de reconocido prestigio, en diferentes países. En  España el Panel de Funcas (https://www.funcas.es) proporciona ,en acceso libre y desde 1999, los resultados de una encuesta bimestral a cerca de 20 centros de predicción económica, sobre variación esperada, para el año en curso, de PIB, consumo, inversión, comercio exterior, IPC o empleo.

Entre los procedimientos automáticos de predicción económica a corto plazo está la utilización de modelos de alta frecuencia a partir de una selección de indicadores adelantados de la posible evolución del PIB o alguno de sus componentes; en el caso de nuestro país citaré dos aplicaciones.

La Autoridad Independiente de Responsabilidad Fiscal,AIRef (http://www.airef.es) utiliza un modelo factorial dinámico que actualiza las predicciones (mensuales o trimestrales) del PIB y sus principales componentes a medida que se va disponiendo de nueva información sobre los indicadores seleccionados (p.ej. producción industrial, PMI, indicador confianza industrial, afiliados SS, exportaciones,…).

CEPREDE, por su parte (http://www.ceprede.es) viene aplicando un modelo automático de alta frecuencia, que utiliza predicciones ARIMA de una selección de indicadores que aplica a escala europea (EUREN), del conjunto de la economía española y también por regiones.

Algunas instituciones otorgan el protagonismo de sus predicciones a algún modelo econométrico. Muchos usuarios de predicciones piensan  que estas proceden de un complejo entramado de ecuaciones estadístico-matemáticas (decenas, cientos o incluso miles de relaciones) que se alimenta de bases de datos históricas y se complementa con valores de futuro para algunas variables estratégicas externas al modelo (exógenas). Así, se resuelve el modelo y la solución corresponde a la predicción buscada. Eso sí, diferentes modelos, con distintas bases de datos y valores futuros de entorno darán lugar a predicciones diversas.

Lo que muchos desconocen es que las ecuaciones de los modelos (que cuantifican las relaciones entre las distintas magnitudes económicas) son aproximaciones imperfectas e inestables en el tiempo, que deben "manejarse" con cuidado. En otras palabras, los modelos econométricos operativos difícilmente proporcionan soluciones válidas por sí mismos y sólo constituyen una herramienta de trabajo para el predictor, que debe controlar posibles cambios estructurales, variaciones del entorno e imperfecciones del propio modelo. No hay soluciones automáticas directamente utilizables (excepto en modelos muy sencillos), sino elaboraciones de los propios expertos que manejan los modelos y complementan los resultados iniciales.

Pero si los modelos exigen ser "manejados" por buenos expertos para proporcionar predicciones válidas (en términos de errores de futuro), ¿por qué los centros de predicción van a limitarse a utilizar un modelo y no complementar sus apuestas de futuro con otros componentes?

Por ello, la mayoría de los centros de predicción emplean procedimientos mixtos, más o menos complejos, que combinan técnicas y enfoques alternativos. Dado que esa "cocina" es muy variada y desconocida externamente en sus detalles, voy a referirme a mi experiencia personal como miembro del equipo CEPREDE.

Todo empezó, hace más de tres décadas, con la elaboración del Modelo Econométrico  Wharton-UAM, en un proyecto de investigación conjunto entre las universidades de Pennsylvania y Autónoma de Madrid, con el liderazgo intelectual del mayor experto mundial, el profesor Lawrence Klein. Un evolucionado software informático (para la época) y una elaborada base de datos, permitieron disponer de un maravilloso modelo de más de 400 ecuaciones (versión WUAM.0) que permitía reproducir, en forma aproximada, la evolución de los últimos 15 0 20 años de la economía española.

Predecir era ya otro problema. Para empezar había que determinar los valores de futuro de las exógenas (las variables extra-modelo que condicionaban resultados): PIB mundial, tipos de interés o de cambio peseta/dólar, precio del petróleo, inversión pública,…Lo siguiente fue comprobar que la solución conjunta del modelo proporcionaba resultados inadmisibles, al interactuar los errores entre los cientos de ecuaciones. Además las ecuaciones había que re-estimarlas con los nuevos datos disponibles y adaptar especificaciones (las variables explicativas de cada ecuación). ¡No había un modelo permanente, sino versiones en cambio permanente en una lucha continua para ajustar imperfecciones detectadas!

Pronto descubrimos la necesidad de utilizar permanentemente loa factores de ajuste (add factors) que permitían alterar los resultados iniciales de cada ecuación cuando no parecían "razonables". El subjetivismo hacia su entrada. La objetividad científica del modelo daba paso a la arbitrariedad controlada de los economistas expertos que controlaban sus resultados. No había buen modelo sin un equipo de economistas con buena formación, visión de futuro y amplio conocimiento de la realidad de la economía española.

No es cuestión de describir aquí las diferentes etapas seguidas en la evolución de nuestra cocina de la predicción. Me remito a mi post http://blog.antoniopulido.es/5-etapas-prediccion-1980-2017/

Unicamente añadir la relación de los principales ingredientes de esa cocina en el momento actual:

  1. Modelos Wharton-UAM de medio/largo plazo (datos anuales) y de corto (datos trimestrales)
  2. Modelos de Alta Frecuencia (datos mensuales actualizados con indicadores)
  3. Modelos sectoriales y regionales
  4. Paneles de expertos
  5. Indicador de salud de la economía española (mensual)
  6. Indicador de incertidumbre (mensual)
  7. Proyectos internacionales de predicción (LINK, EUREN)

Con estos (y otros diversos ingredientes) un equipo de expertos trabaja de forma continuada para elaborar predicciones, establecer escenarios alternativos de futuro y valorar impactos de riesgos e incertidumbres a a corto, medio y largo plazo. El error siempre es posible en la tarea de predicción macroeconómica; el objetivo es reducirlo al mínimo posible y mantener una lucha constante de perfeccionamiento.

Antonio Pulido http://www.twitter.com/@PsrA

De interés

Artículos Relacionados