viernes,3 diciembre 2021
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioOpinión¿Predicción automática inteligente?
IA y ML

¿Predicción automática inteligente?

Futurolandia
Dedicaré este post a dar alguna orientación inicial en el campo de la confluencia entre Inteligencia Artificial (IA), Machine Learning (ML) o Aprendizaje Automático y la predicción (particularmente la referida a temas económicos y empresariales) que surge de estos nuevos enfoques y que podríamos denominar predicción automática: un tratamiento "inteligente" y autónomo de los datos que protagonizan el proceso de predicción.

Más que una referencia a las variantes técnicas de elaboración, quiero centrarme en el enfoque metodológico al que responden.

Mi punto de partida, como defensor convencido y militante de la innovación, es el aviso (de validez general) de que seaís partidarios del cambio y de aprovechar las potencialidades que la nuevas tecnologías ponen a nuestra disposición, pero que ello no implica aceptar cualquier cambio o variante sin valorar sus limitaciones, impactos y relación coste/eficacia respecto a opciones alternativas.

Más aún: las novedades se acumulan, muchas veces aparentando más de lo que son y respondiendo a una presión comercial añadida de los promotores de nuevos cauces. Por ello es preciso que dispongamos de unos conocimientos básicos como para poder formarnos nuestro propio criterio en un mundo en rápida y profunda innovación en que es difícil orientarse.

Sin duda la IA inunda los más diversos aspectos y ha mostrado su capacidad transformadora desde su primeros pasos, a mediados del siglo pasado, con la pruebas iniciales para determinar en qué condiciones un ordenador, adecuadamente programado, podría considerarse que tuviera algún tipo de inteligencia similar a la humana, para resolver problemas complejos.

Los campos de aplicación son múltiples y los especialistas apuntan a su conexión con áreas temáticas tan relevantes como robótica, internet de las cosas (IoT), análisis de redes sociales, modelos de simulación o aprendizaje automático (p.ej. en @ipfconline1 se citan hasta 17 áreas multidimensionales).

Como comentaba en un post anterior (https://www.antoniopulido.es/de-la-economia-de-los-datos-a-la-economia-del-conocimiento/) la conexión IA/Datos nos conduce al campo interdisciplinario de la ciencia de los datos(data science)en que confluyen métodos, procesos y sistemas para extraer conocimiento de los datos disponibles.

Esa inteligencia artificial puede desarrollarse a través de reglas previamente programados por un humano o mediante un aprendizaje automático(Machine Learning, ML) que, a partir de grandes bases de datos (Big Data), identifican patrones de comportamiento futuros, habitualmente en forma de algoritmosautomáticos.

Una variante relevante es el denominadoaprendizaje profundo(Deep Learning, DL), que produce algoritmos a partir de un enfoque de redes neuronales,simulando el funcionamiento por capas de las neuronas del cerebro humano. Cada capa sirve para reajustar el proceso de reconocimiento de patrones de comportamiento y reajustar los parámetros del algoritmo para predecir un resultado futuro.

Personalmente no tengo dudas de la relevancia para la economía y la gestión empresarial de la IA en general y sus aplicaciones al análisis de datos y predicción de comportamientos. Parece razonable utilizar grandes bases de datos (BD, IoT) para deducir comportamientos de consumidores, mejorar la gestión automática de almacenes o la logística de distribución. Según algunas estimaciones (Marketsand Markets Research) el tamaño del mercado de aplicaciones de las herramientas de aprendizaje automático (ML) alcanzó los 1.400 millones de $ en 2017 y puede alcanzar los 8.800 en 2022.

Ya adelanté, hace casi dos años, mi posición favorable, pero con reservas, en los procesos automáticos de tratamiento de datos económicos y empresariales (https://www.antoniopulido.es/algoritmos-economia-revolucion-moda/):

Tienen una utilidad indudable, empujados por una ola de innovación tecnológica, con datos masivos y apps de acceso generalizado.  Pero por su propio automatismo y bajo coste de aplicación y difusión de resultados pueden caer en desviaciones  y dar excesiva importancia a aplicaciones que dan unos resultados a partir de cajas negrasque calculan pero no explican; o que dependen de criterios de selección arbitrarios y no explícitos y objetivamente justificados. Convertir datos en información para la toma de decisiones exige no hacer trampas en el proceso y entender lo que hacemos. Tomar datos de entrada, aplicar un automatismo y obtener datos de salida no es, en sí mismo, una garantía de conocimiento útil.

Para concretar mi posición respecto a los mecanismos automáticos de predicción, voy a partir de un documento de la OCDE sobre modelización económica y ML (N.Woloszko, Economic Modeling &Machine Learning, OECD, 22/2/2017).

La modelización econométrica, como enfoque de predicción, se inicia con un conocimiento a priori sobre las interrelaciones claves que explican el comportamiento de las variables que se trata de predecir. Los datos sirven para confirmar o rechazar la selección previa de variables explicativas y, al final del proceso, para disponer de una estructura de comportamiento deducida del pasado pero aplicable al futuro.

El aprendizaje automático o de máquina (ML) parte, por el contrario, de que la información relevante se encuentra en los datos. Se puede modelizar sin modelo de conocimiento previo y la validación y estructura del algoritmo predictivo puede extraerse directamente de los datos. Los datos son primero, la teoría que ayuda a interpretar los resultados viene después.

El documento de la OCDE que comentamos, reconoce que la creciente complejidad de los comportamientos económicos hace que las estructuras de pasado cambien a futuro y, por tanto, que los coeficientes inestables de modelos econométricos estimados a partir del comportamiento histórico, pueden conducir a predicciones erróneas, en particular en momentos de cambio de tendencia (turning points)..

La mayor flexibilidad para captar cambios de estructura a partir de mecanismos automáticos que se reajustan rápidamente con la incorporación de nuevos datos es una alternativa a valorar frente a modelos con múltiples relaciones estimadas con un alto peso del pasado.

El debate viene de lejos: ¿Mejor predicción sin teoría, en que los datos mandan (grandes bases y elevada capacidad de tratamiento), aunque sea a través de una caja negra difícil de interpretar? ¿O nos inclinamos por un proceso dirigido por nuestro conocimiento a priori sobre los condicionantes del fenómeno a predecir, aunque sea atentos a cambios en los coeficientes (e incluso reglas de comportamiento) de los modelos deducidos de la historia?

En mi opinión la respuesta no es única y la tendencia es complementaria más que excluyente, con variantes según circunstancias de entorno y horizonte de predicción. Como resumía la situación un reciente post (http://pwc.blogs.com/economics_in_business/2017/07/what-can-machine-learning-add-to-economics-.html) "Mientrasque puede resultar atractivo dejar que los datos hablen primero en casos en que se dispone de un escaso conocimiento previo respecto a las relaciones causales, un exceso de confianza en los datos puede poner en problema a los incautos".

Si se quiere predecir la evolución económica a medio/largo plazo de un país, sector o empresa, los datos de pasado son un ingrediente valioso a tener en cuenta, pero no pueden llevar el peso del proceso. Debe primar el conocimiento acumulado, las consideraciones de entorno, la valoración de escenarios alternativos, los enfoques prospectivos.

Si se trata de una predicción a corto o muy corto plazo (horizonte a días, semanas, meses,…) la rapidez  y el automatismo de respuesta cobran fuerza y la balanza se inclina hacia  la disponibilidad de datos múltiples y recientes.

Pero no nos equivoquemos: las alternativas son ya múltiples y no todas confluyen hacia IA y ML.  Disponemos de un amplio abanico de tratamiento de series temporales, desde los procedimientos más elementales de alisado exponencial, hasta las variantes más sofisticadas de modelos ARIMA o adaptaciones  a modelos de alta frecuencia.

Me remito a un interesante y reciente documento de Makridakis, un veterano especialista en la comparativa coste/eficacia de diferentes procedimientos de predicción a corto, incluidos variantes Machine Learning (http://journals.plos.org/plosone/article?id=10.1371/journal.pone.01948899).

Su conclusión es que no se observa un mejor comportamiento de las variantes ML respecto a los procedimientos estadísticos ya disponibles de series temporales (ocho respecto a ocho), en un amplio experimento con 1045 series de datos mensuales. "Pero aunque sea descorazonadora la conclusión de nuestro trabajo  de que la acuracidad predictiva de los modelos ML es menor que la de los métodos estadísticos, somos optimistas respecto al gran potencial de las aplicaciones ML a la predicción. Es evidente que se necesita trabajar más en mejorar estos métodos, pero es el mismo caso que en todas las nuevas técnicas…No hay razón para que el mismo tipo de rupturas no pueda alcanzarse con los métodos ML aplicados a la predicción.Pero incluso así, debemos reconocer que aplicar IA a la predicción es bastante distinta que hacerlo en juegos o en reconocimiento de imágenes o voz y que puede requerir algoritmos diferentes, especializados, para tener éxito".

Mi propia conclusión: siempre abiertos a las nuevas posibilidades que la innovación está ofreciendo en el campo de la predicción (en particular económica y empresarial), pero sin caer en la trampa de aceptarlas sin criterio. Desconocer las posibilidades de IA y LM es  un absurdo. Aplicarlas sin una valoración previa en cada caso, también lo es.

Antonio Pulido http://www.twitter.com/@PsrA

De interés

Artículos Relacionados