jueves,21 octubre 2021
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioOpiniónQuants, automatismos y big data
Alquimia Cuántica

Quants, automatismos y big data

Futurolandia
En 2010, aún viviendo las consecuencias de la crisis financiera desatada en 2018, un periodista del The Wall Street Journal, Scott Petterson, publica The Quants, un libro muy crítico sobre "una nueva raza de genios matemáticos que conquistaron y casi destruyen Wall Street". Casi una década después y en plena euforia de datos y automatismos como BD, AI y ML, puede hacerse un balance más ponderado.

La replica de los supuestos aludidos fue muy visceral y en una recesión del libro, un profesor inglés, David Steinsalz, marca sus puntos más discutibles (http://www.steinsaltz.me.uk/papers/QUANTS11.pdf). Reconoce que los "quants" de Petterson  no son los habituales analistas de mercados financieros, sino un grupo de potentados capitalistas influenciados por los practicantes de una práctica financiera de inspiración matemática.

Estos quants prestaban menos atención a los fundamentalesde las empresas. Fueron agnósticos acerca de aspectos cualitativos como la moral de sus empleados y directivos, centrándose en  predecir, a partir de variables numéricas, los movimientos al alza o la baja de sus acciones. La valoración de la alquimia cuántica que denuncia Petterson responde así a una instantánea fotográfica hecha desde fuera de la comunidad matemática, que trata de acusar a los matemáticos financieros de apropiarse de los éxitos, cuando existen, y repartir por toda la sociedad los fracasos.

Personalmente estoy de acuerdo en que la predicción exige incorporar aspectos cualitativos, subjetivos, emocionales que pasan frecuentemente olvidados. En un post de hace ahora un año insistía en este enfoque (https://www.antoniopulido.es/medicion-intangibles-falacia-mcnamara/).

No hay ciencia que pueda renunciar a cuantificar, en alguna forma, los elementos con que trabaja. Una  economía operativa exige medicióny su consolidación como ciencia ha conducido a utilizar más datos, técnicas de análisis más perfeccionadas y valorar conceptos sutiles y aparentemente inconmensurables, como la llamada economía sumergida o losintangibles. Se trata de no caer en la conocida como falacia de McNamara, que lleva hasta despreciar aquello desconocido o no directamente mensurable.

Hace ya medio siglo, el Secretario de Defensa de EEUU en 1961-68, Robert McNamara, reconocía que el diagnóstico sobre un éxito previsible en la guerra de Vietnam, se había deducido de un enfoque cuantificador que  había olvidado aspectos relevantes no directamente valorables o de los que no se disponía de información.

En 1972, el economista Daniel Yankelovich en un libro sobre prioridades empresariales (Corporative Priorities: A continuing study of the new demands on business) generaliza el fallo a la gestión empresarial con  la denominación de falacia de McNamara. El primer paso es medir sólo lo que sea fácilmente mensurable. El segundo paso es descartar lo que no se puede mensurar fácilmente o darle un valor cuantitativo arbitrario. Esto es artificial y conduce a errores. El tercer paso es suponer que lo que no se puede medir fácilmente no es importante. Esto es ceguera. El cuarto paso es decir que los no se puede medir fácilmente no existe. Esto es ya un suicidio.

Reconozco que por aquellos años yo era un joven económetra, cuyo entorno investigador y de aplicaciones operativas estaba dominado por los datos disponibles, a los que creía que debía adaptar los modelos de análisis y predicción. Mi sueño era disponer de una gran base de datos (cuantos más variables y más años de historia, mejor) y buscar el mejor modelo compatible con los mismos. Con pena, pero sin gran sentimiento de culpa, renunciaba a tratar aspectos que me parecían importantes, pero de los que carecía de información.

 

Muchos años acumulados de experiencia me han enseñado que una gran base de datos no es garantía de un buen análisis del pasado y , menos aún, de una predicción correcta de futuro. Esta reflexión puede ser también un aviso para la utilización indiscriminada de big data y algoritmos automáticos de análisis y predicción.

 

La información directamente disponible puede estar condicionando nuestros diagnósticos como economistas, tanto a nivel macro como empresarial. Lo cualitativo, lo psicológico o de entorno socio-político puede resultar tan importante como los datos de la Contabilidad Nacional o los flujos financieros.

 

Si no disponemos de datos (o son insuficientes) sobre intangibles, medio ambiente, distribución de renta y riqueza o producción de las familias, tendremos que tratar de estimarlos indirectamente o buscar aproximaciones operativas (proxis). Y si todo esto falla, no caigamos en el suicidio intelectual de considerar que lo que no está medido no existe.

 

50 años después de McNamara, la falacia que llevó a no valorar elementos que condujeron a una derrota militar en Vietnam, tiene aún más validez que entonces. En el nuevo mundo que se está configurando, en el que la innovación,el conocimiento, las ideas, los intangibles, son las principales fuerzas motoras, sería imperdonable confundir conocimiento con información y , más aún, información con datos disponibles.

Pero si dejar de valorar lo más intangible o de lo que no disponemos de datos ( un error imperdonable), también lo sería no aprovechar ese nuevo petróleo de los datos y caer en descalificaciones fuera de lugar sobre los nuevos desarrollos tecnológicos de análisis y predicción, incluidos algoritmos automáticos, como ocurre con procesos automatizados y superveloces para operar en mercados financieros.

En un post previo sobre economía de los datos con motivo de la publicación de un libro dirigido por @ontiverosemilio (https://www.antoniopulido.es/de-la-economia-de-los-datos-a-la-economia-del-conocimiento/) señalo que lo primero es no confundir "dato" con "número"o "estadística",que sería sólo una de las representaciones simbólicas de la información, sino que también admite una forma visual, alfabética, espacial, etc. de cualquier atributo o variable cuantitativa o cualitativa. "Por ejemplo, una imagen de una cámara de tráfico, una fotografía, un mensaje en las redes sociales, una voz en una conversación, la temperatura de una habitación, el grado de humedad de un cultivo, el número de unidades vendidas por una tienda o la hora exacta en la que se entregó un pedido".

Admitido que los datos pueden tomar formas muy variadas, el paso siguiente es entender el proceso de transformación para convertirlos eninformación. Acumular datos no garantiza disponer de una información útil, aunque sean aquellos el material en bruto con el que se elabora y que marcan su potencial de uso.

Los datos aislados y sin tratar carecen prácticamente de componente informativo y sólo "informan" si se relacionan con otros datos en un contexto adecuado. De hecho, todas las operaciones estadísticas de un país son un ejemplo de intentos de transformación de datos numéricos dispersos en una información útil. El dato del precio pagado por un consumidor al comprar un determinado producto, puede transformarse en un indice del coste de la vida, que aporta nueva información al relacionarlo con el salario medio percibido por sexo, edad y nivel formativo.

Pero unir datos y relacionarlos entre sí es el estadio más elemental de utilización. En una economía/sociedad con grandes masas de datos, 161 exabytes (EB=10 elevado a 18) en 2013, según se cita en el libro, parece imprescindible hacer un esfuerzo adicional para convertir información en conocimiento. 

Se trata de manejar miles o millones de datos con potentes herramientas de análisis que permitan encontrar respuestas a las  preguntas que permanentemente nos hacemos individuos, empresas, gobiernos o todo tipo de instituciones. Aquí es donde se han situado, a lo largo de los siglos, la evolución científica con base en la experimentación y las técnicas modernas de tratamiento de datos, investigación operativa, series temporales o modelos econométricos, por citar sólo algunos de los enfoques más habituales en el campo de la economía y administración de empresas.

Nos enfrentamos no sólo a grandes bases de datos (big data),sino también a que "el nuevo contexto de relaciones en torno al dato trae consigo nuevas reglas de juego para los agentes -ciudadanos, Gobiernos, empresas-…y supone un cambio en las formas de producción y consumo, de planificación y gestión, de distribución, movilidad, etc., derivadas de los cambios tecnológicos relacionados con la información, las comunicaciones y la globalización".

En este contexto resulta aceptable (aunque inverosímil) la advertencia para evitar la dictadura delalgoritmo,pero sin caer en descalificaciones extremas sobre su importante papel. En palabras de Yuval Noach Harari (21 lecciones para el siglo XXI, Debate) se trata de evitar un mundo en el que las principales decisiones políticas,  económicas y sociales sean tomadas por complejos cálculos de computación que ya muy pocos comprendan. 

Antonio Pulido http://www.twitter.com/@ApsR

De interés

Artículos Relacionados