Artículos TécnicosDistribuciónTransmisión

Gran apagón: el terrorista es las matemáticas

blackout-usa-ohio-2003

 

Tres líneas electrícas en Ohio dejan de funcionar. En unas horas el sistema electrico de la región más rica del mundo colapsa. Cincuenta millones de personas se quedan a oscuras. Un escalofrío: ¿Terrorismo?. No, ningún grupo terrorista hubiera podido saber dónde golpear para producir un efecto tan amplio. Ni siquiera lo sabían los responsables de la red eléctrica norteamericana. Lo que si sabían, al menos desde 1996, es que un apagón en cadena podría volver a ocurrir. La robustez y la vulnerabilidad de una red no depende del equipamiento tecnológico sino de su arquitectura y ni siquiera son contradictorias. Robustez y vulnerabilidad son propiedades simultáneas en las redes complejas. El terrorista son las matemáticas.

 

En general, la forma en que la naturaleza obtiene robustez en un sistema es maximizando la interconectividad. También nosotros: básta echar un vistazo a la topología de internet. Cuando una red crece líbremente -como internet, los enlaces en la web, el sistema aéreo o la red eléctrica- dejando que los nuevos nodos se conecten al nodo anterior que deseen, inevitablemente aparecen hubs, conectores que atraen a un mayor número de conexiones por el hecho de estar allí. Su efecto es minimizar grados de separación entre nodos, el número de pasos que hay que seguir para ir de una parte a otra de la red siguiendo las conexiones. Por ello, los conectores, al crecer tienen cada vez más atractivo sobre los recien llegados. Es el fenómeno conocido como conexión preferente. Si abro un aeropuerto en Cuenca lógicamente será más útil que los vuelos vayan a Madrid o Londres que a Reus, porque desde ahí los viajeros tendrán que hacer menos escalas para llegar a cualquier lado. Las redes de crecimiento libre (free scale networks), por este motivo funcionan de acuerdo a leyes potenciales cualquiera sea su tamaño.

 

¿Qué quiere decir ley potencial? Pues que si relacionamos el número de nodos (y) con el de enlaces que soporta cada nodo (x), nos encontramos con funciones del tipo y= k*x-n. Es decir, que el número de nodos que sólo tienen un enlace será una potencia del número de enlaces que soporta el nodo más conectado. Al exponente n se le llama el grado de la función.

 

Pues bien, el profesor Shlomo Havlin, de la Universidad de Bar-Ilan, demostró en el 2000 que las redes con un grado menor de tres no pueden caerse (hay que retirar todos los nodos para que la red colapse). El dato es relevante: Estudios empíricos sitúan por ejemplo entre 2.1 y 2.6 el grado de la red de hiperenlaces de la WWW, por eso al retirarse los dos principales nodos de la web española (las versiones web de los dos mayores periódicos), las páginas web españolas sufrieron en su valoración por Google, pero no desaparecieron: la red española perdía valoración en conjunto porque tendía a convertirse en una isla dentro de la web global, aunque no se desintegrara interiormente.

 

blackout[1]

 

Y es que la robustez no sólo es la propiedad de evitar una caída general. También es la medida de la resistencia local a un fallo. En este sentido, la robustez de las redes complejas en buena parte se debe a que si los errores afectan por igual a todos los nodos, como los conectores son pocos, las probabilidades de que un error afecte gravemente a un número amplio de nodos en una región determinada son también pocas. Esa es parte de lafilosofía de la Internet original por ejemplo.

 

Sin embargo, como comentaba el Profesor Barabasi, de la Universiedad de Notre Dame (Estados Unidos), eliminar un cierto número de nodos puede convertir Internet en un conjunto de piezas aisladas (…) no es una consecuencia del mal diseño o de fallos en los protocolos de Internet, la vulnerabilidad a ese tipo de ataques es una propiedad inherente a las redes de libre crecimiento El profesor Duncan Watts de la Universidad de Columbia demostró que el punto crítico necesario para alcanzar el nivel en que una red se rompe es fácilmente alcanzable. Resultados similares se obtuvieron en la Universidad de Barcelona cuando los profesores Solé y Montoya estudiaron por primera vez en el 2000 la fragilidad de las redes ecológicas en un paper que es hoy referencia en todas las bibliografías científicas. Es decir, todos los estudios prácticos y estudios topológicos demuestran que en las redes complejasvulnerabilidad y robustez son dos propiedades inseparables.

 

¿Por qué ocurrió el gran apagón? ¿Pudo haberse evitado?

La red eléctrica es una red compleja en la que funcionan todas las observaciones de la teoría de redes. Tiene sin embargo una diferencia con otras redes: cuando un nodo cae, su carga se redirige automáticamente hacia otros nodos cercanos. Si estos tienen capacidad no usada podrán absorverlo sin problemas y el apagón será local, sólo perceptible por aquellos que tomen electricidad directamente del nodo caido. Si no es así se producira un fallo en cascada que sólo terminará cuando los nodos receptores tengan capacidad excedente suficiente. Un fenómeno así fue exactamente lo que ocurrió a partir del fallo en Ohio.

 

blackout11cut-03[1]

 

Demos por hecho que los fallos locales son inevitables. El objetivo sería reducir las caídas en cascada. El último fallo en cascada del sistema eléctrico norteamericano fue en 1996, se originó en Denver y afectó al mediooeste americano. Entonces, como ahora, los políticos y los creadores de opinión intentaron sacar lecciones. Se redobló la inversión en infraestructuras aumentando el margen de carga no utilizada por las líneas. Pero las caídas en cascada son también un viejo amigo de la teoría de sistemas dinámicos: desde la economía a la memética, la magia del Tipping point fascina. Sabemos que los procesos que llevan a un fenómeno de cascada son durante cierto tiempo invisibles. Un tiempo que es proporcional al margen de sobrecarga de la red.

 

Pero vayamos por partes: El Tipping point es el punto en el que se inicia un proceso de cascada. Una explosión nuclear por ejemplo un proceso de cascada que inicia con un tipping point (el momento en el que se alcanza la masa crítica). El proceso mediante el que se llega a un tipping point sigue en si mismo la estructura de una red en crecimiento y por tanto se somete a una ley potencial.

 

Una nueva venganza de las matemáticas: al incrementar proporcionalmente los márgenes de resistencia, las sobrecargas transferidas aumentan potencialmente al ganar la cadena nodos equivalentes: una vez alcancemos elTipping point las sobrecargas que enviemos al resto de la red serán mucho mayores y el proceso por tanto más rápido.

 

Por ejemplo, imaginemos que el problema se origina en una subred formada por nodos que soportan flujos de hasta 5 unidades y que habitualmente soporta 3 en el que cada nodo se conecta con otros tres iguales antes de salir a la red nacional. Un nodo de repente soporta 6 (un incremento del 20% sobre el máximo) quedará anulado y transferirá sus 6 unidades de carga a los otros tres, que la absorverán sin que se inicie un proceso de cascada. Estamos en el límite, una pequeña diferencia en la sobrecarga (de 6 a 7) y se caerán todos los nodos, enviando a la red nacional 16 unidades de carga (7+3+3+3).

 

Ahora subamos el margen medio no utilizado de la subred hasta un 100% de la carga media soportada, cada nodo soportará un máximo de 6 unidades de carga. Un nodo tirará la red a partir de saturarse con más de 9 unidades de carga, por lo que cuando nuestra subred caiga lanzará a la red 19 unidades de carga.

 

No es difícil, a partir de este ejemplo entender las consecuencias. Caidas en las subredes locales cuyos márgenes se han ampliado producen efectos más que proporcionalmente mayores al salir a la red nacional. Si no se hubiesen aumentado los márgenes de resistencia individual de algunas subredes, pequeñas sobrecargas harían saltar los plomos localmente y hubieran permitido gestionar la crisis. Si este apagón ha tenido mayor amplitud y duración que el de 1996 ha sido precisamente por las medidas que entonces se tomaron para evitarlo. Al aumentar los márgenes de sobrecarga de las zonas más pobladas aumentaron el nivel de error necesario para alcanzar unTipping point y en consecuencia hicieron crecer más que proporcionalmente el número de clientes finales afectados y el espacio físico cubierto por la red. Pero sobre todo el tiempo durante el cual el problema fue invisible a los técnicos.

 

Y es que cuando no se las tiene en cuenta, las matemáticas pueden ser el peor terrorista.

 

Fuente: lasindias.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba