Modelos, ¿realidad o ficción?

En la entrada anterior vimos la idea que hay detrás de los modelos de tráfico y el proceso de cálculo de 4 etapas: decenas de variables, una sucesión de pasos iterativos y algoritmos deterministas y aleatorios, todo metido en un marco teórico orquestado con precisión matemática. En esencia, algo muy complejo y mejorado durante décadas para intentar replicar la realidad que vivimos a diario. Pero personalmente creo que deja mucho que desear por la propia manera en la que está concebido…

En esta entrada te voy a explicar por qué los modelos son de lo mejorcito que tenemos para predecir el tráfico, pero sin llegar a ser un reflejo la realidad. Lo que, según qué casos, puede ser un problema.

Veámoslo con un ejemplo

Imagínate que vas al dentista porque te duelen las muelas. Ya sin ser dentista, solo por cómo y dónde te duelen, sospechas que es una muela del juicio. Pero el dentista lo descarta categóricamente y no lo comprueba porque normalmente las muelas del juicio salen entre los 17 y 25 años, y tú tienes 40. A cualquiera le chirriaría ese argumento y rápidamente vería que, como poco, ese dentista no estaría haciendo bien su trabajo. Y es que la clave está en ese normalmente, ya que confunde un comportamiento común con una verdad. Poniéndonos pedantes, es lo que se conoce como falacia ad populum.

Volviendo a nuestro caso, en la entrada anterior hemos dicho que los modelos de tráfico son herramientas que simulan el comportamiento promedio del tráfico. Cambia “promedio” por “común” y verás por donde voy… Y antes de que los ingenieros de tráfico se me echen encima, dejad que me explique a lo largo de esta entrada. No estoy diciendo que los modelos sean una estafa o que se sustenten en falacias (de hecho vamos a ver por qué son críticos en la planificación urbana), digo que los modelos responden a un comportamiento concreto y lo asumen como cierto, excluyendo los demás. Por eso el tráfico funciona más o menos bien hasta que llueve o cortan un viario y parece que todo el mundo se ha vuelto loco.

En defensa de la planificación urbana he de resaltar lo obvio: las carreteras no pueden cambiar según las condiciones. Tenemos una configuración y solo una, por eso es lógico que esta configuración se diseñe para unas condiciones de tráfico promedio, asumiendo como un mal menor que puedan darse problemas en el resto de las condiciones. En mi opinión esta es la mentalidad que ha seguido la modelización del tráfico, y que esquemáticamente sería algo así:

Figura 1. Esquema simplificado en la validación del viario
Fuente: Elaboración propia

La rama roja de este esquema es una licencia mía. Lo cierto es que en la inmensa mayoría de los modelos no se analizan otras alternativas más allá de las condiciones promedio. Diréis que hay excepciones como los flujos atípicos en centros comerciales o en estadios de fútbol (por decir algunos), pero en esos casos lo que se suele hacer es que se asume el escenario más desfavorable como las nuevas “condiciones promedio”. Cierto, muchas variables se mayoran, y se exigen estándares muy elevados para garantizar que la infraestructura resultante tenga un cierto margen para responder ante comportamientos imprevistos. Pero el concepto siempre es el mismo: que la carretera funcione ante el escenario que consideramos más importante. Por eso, si veis algún informe de tráfico, observaréis que gran parte de la redacción busca detectar y justificar este escenario, y que según la normativa española suele ser:

  • Lo que llamamos IH100: nos da unas intensidades sintéticas mayoradas para hacer modelos de parte de la seguridad.
  • Lo que llamamos hora punta: refleja las intensidades reales medidas sobre el terreno y que suelen ser dos, una por la mañana y otra por la tarde. Este planteamiento es el más empleado porque es muy útil para comparar la distribución horaria del tráfico, validando el viario cuando todo el mundo sale de su casa y cuando luego vuelve.

Voy a recapitular todo lo dicho. Nuestros modelos de tráfico no simulan la realidad, simulan un escenario teórico que consideramos como promedio. Por eso no me los creo: porque si alteras una variable concreta en ese escenario ideal, el tráfico se va a comportar de manera diferente (a veces completamente diferente). Lo cual me lleva a dos puntos: para qué queremos entonces los dichosos modelos de tráfico y qué podemos hacer al respecto.

Una mentira piadosa que nos ahorra muchos disgustos

Puede que los modelos solo nos den aproximaciones ante casos concretos, pero es que esas aproximaciones son buenas y esos casos concretos están lo suficientemente mayorados como para funcionar bien en la mayoría de los demás casos. Por eso los modelos suponen herramientas útiles en la práctica.

¿Os acordáis en la entrada anterior cuando definíamos para qué sirven los modelos de tráfico? Decíamos que para ver cuando el tráfico va a presentar problemas. Pues bien, para demostrar que algo va a funcionar, y a menos que seas un cuñado, tendrás que aportar datos y pruebas. La modelización es una herramienta que te permite precisamente eso: te da pruebas y resultados fácilmente contrastables sobre cómo se reparte el tráfico, obtenidos matemáticamente mediante una metodología accesible para todos que se ha estado refinando durante décadas (lo que siempre le va a dar mayor credibilidad). Esto es fundamental porque nos da la capacidad de poder valorar situaciones a partir de un criterio común para todos, así como determinar si las valoraciones de otros están suficientemente justificadas. En otras palabras, nos permite tomar decisiones más fácilmente. Este criterio de la “estandarización matemática” ya es suficientemente sólido como para justificar los modelos, pero hay dos más que vale la pena destacar: la identificación de anomalías y el principio de comparación.

¿Alguna vez te ha pasado de estar muy seguro de que iba a suceder algo, incluso decirlo abiertamente y con toda seguridad, solo para que luego pasara otra cosa totalmente diferente? Si es así entonces conoces esa sensación rara; a medio camino entre la vergüenza por quedarte en evidencia, la indignación por no cumplir tus expectativas y una curiosidad casi infantil por entender el motivo de tal suceso. Pues no te miento si te digo que esa sensación la tengo varias veces al año cuando intento pronosticar los resultados de un modelo. Y esta es precisamente una de las mayores ventajas de los modelos: identificar fenómenos contraintuitivos. Es decir, encontrar esos comportamientos que, si bien se pueden explicar y entender una vez observados, resulta prácticamente imposible deducirlos a priori. Os pongo un ejemplo personal (es de una microsimulación, pero me sirve): estaba modelizando una glorieta con unos problemas de tráfico tremendos. Probé de todo y finalmente conseguí solucionarla haciendo 1001 cambios. Tras lo cual simulé una configuración mucho más sencilla para tener un “escenario base” para comparar las mejoras… os podéis imaginar mi cara cuando vi que esa misma glorieta con menos carriles conseguía mejores resultados que con muchas mejoras. ¿El motivo? Pues que añadir más carriles generaba más desplazamientos laterales, lo que creaba una agitación en los flujos de vehículos y, en última instancia, un tráfico más denso. Mientras que si le reducías el número de carriles hacías que los flujos fueran más laminares y se dejaran de tanto cambio de carril. Muy lógico todo después de analizar la intersección durante horas, pero vete y predice el día de antes que meter más carriles provoca atascos, y que la solución pasa curiosamente por quitarlos.

No digo que los modelos siempre muestren comportamientos inesperados, pero si detectamos algo fuera de lo común créeme que es gracias a ellos. El ejemplo que os puse fue una particularidad del proyecto debido a la configuración de los flujos. En cualquier otra combinación meter más carriles daría mejores resultados, pero no en esa configuración en concreto. A veces puede ser una falsa alarma debido a un error en la representación del grafo, pero otras veces son pistas de algo más escondido y que te puede invalidar un proyecto viario.

El otro motivo, el principio de comparación, ya lo mencionamos en la entrada anterior: por regla general no queremos reflejar el tráfico existente, lo que queremos es saber si va a mejorar o empeorar si hago algo en la red. Es decir, la clave está en comparar. En este sentido, la modelización permite hacerlo de forma automática: repito el mismo cálculo en dos casos, uno con el cambio y otro sin el cambio, y veo cómo responde el modelo. Simple pero eficaz.

Muchos problemas y pocas soluciones

A estas alturas me gustaría saber tu opinión, ¿crees que los modelos deben de mejorarse o crees que lo que tenemos es suficiente y basta para hacer un diseño suficientemente racional de la red viaria? Lo cierto es que, si quisiéramos evitar este problema de “efecto túnel” en el que solo vemos nuestro escenario promedio, podríamos hacer más simulaciones para otros escenarios menos probables. Pero este argumento no hay por donde cogerlo. Primero, ¿cómo determinamos esos otros escenarios menos probables? A veces pueden ser obvios, pero la mayor parte de las veces no lo son. Segundo, ¿cómo los modelizaríamos? Si queremos, por ejemplo, ver el comportamiento de la red cuando llueve tendríamos que hacer aforos por todas partes los días de lluvia, lo que no es realizable. Tercero, incluso si tuviéramos todos los datos, ¿cómo enfrentaríamos los resultados de cara a tomar una decisión? Si asumimos que pueden cortar un carril de una autovía por reparaciones, y eso generaría unas retenciones tremendas, ¿cómo lo solucionamos? Desde luego hacer todas las autopistas con un carril adicional “por si acaso” es una locura. Cuarto, el tema costes y tiempos. Ya es complicado y caro hacer modelos para un escenario como para duplicar los esfuerzos. Quinto, ¿Cuándo decimos basta? Modelizamos dos situaciones, tres, quince…

Nada de eso. Personalmente creo que la técnica está perfectamente optimizada para la idea que tenemos sobre qué es un modelo. El problema no es el modelo sino el enfoque. Vamos a ver, ¿qué es el tráfico? Pues un fenómeno emergente y altamente caótico que se asemeja mucho al comportamiento de un fluido. Hacer un algoritmo analítico que simule eso es ponerle puertas al campo, es simplificar matemáticamente algo basado en miles de millones de relaciones totalmente aleatorias. Lo mejor que vas a conseguir es una idea vaga de qué narices está pasando. Allá por la década de 1950 se hizo lo que se pudo para crear un marco teórico que ayudara a tomar decisiones en la planificación, y hay que darle mérito porque consiguieron hacer algo que funcionaba bien sin apenas ordenadores. Pero ahora, 70 años después, seguimos con la misma mentalidad cuando contamos con herramientas como la IA y cantidades enormes de computación y almacenamiento de datos. Algo inexistente hace unas pocas décadas y que supone un salto cualitativo. Pero en lugar de cambiar la concepción de los modelos los hemos hecho más grandes y con más pasos de cálculo… A veces veo modelos y me da la sensación de que buscamos complejidad como sinónimo de calidad.

Ante esto creo que hay otros caminos más prometedores en el tema de la modelización, de los cuales hablaremos en otras entradas ya que esta se está haciendo larga. Pero ya os aviso de que implican un cambio en el enfoque de los modelos: en lugar de intentar replicar un fenómeno matemáticamente a partir de datos aislados, se buscaría representar y caracterizar el comportamiento de la red en tiempo real.

Conclusiones

Desde el principio fuimos conscientes de la imposibilidad de predecir e, incluso, representar fielmente el tráfico. Por ello creamos una metodología basada en una simplificación: representar un escenario ideal promedio con suficiente holgura como para abarcar situaciones más desfavorables. Esta idea funciona bien la mayor parte de las veces, ofreciéndonos una herramienta muy potente para la planificación urbana, aunque no en todas y por eso se crean atascos. Además, el mayor problema que veo es que muchas veces olvidamos estas limitaciones y el hecho de que todo modelo de tráfico es una entelequia. Lo que puede dar lugar a resultados inesperados y malas decisiones al creernos ciegamente los resultados. En resumidas cuentas: los modelos cuentan con mucho margen para la mejora. Y no me refiero en los cálculos, sino en el concepto. De ahí que en otras entradas os contaré ideas sobre algunas alternativas.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio