Es geht die Legende, dass das Internet ein robustes Ding ist, das nichts vergisst und praktisch nicht zerstört werden kann. Die Ursache sehen viele im Netzwerk. Denn ein Netzwerk, bei dem viele Knotenpunkte miteinander verbunden sind, gilt in unserer Auffassung als weitgehend ausfallsicher. Dies liegt an der weit verbreiteten Herleitung des Internetgedankens, denn nach dem Krieg wollten die amerikanischen Behörden eine robuste und verteilte Datenhaltung für ihre Aufklärung (Radarstationen) aufbauen, um für alle Eventualitäten (Atombombenangriffe, Naturkatastrophen etc.) gewappnet zu sein. Eine Studie der PNAS, der Amerikanischen Akademie der Wissenschaften hat nun herausgefunden, wie man überhaupt Robustheit für Netzwerke beschreiben kann. Das Augenmerk liegt dabei natürlich auch auf Netzwerken wie dem Stromnetz oder Gasnetz. Denn die Infrastruktur der Wahl ist für viele Konsumenten das Datennetz. Dass niemand über Strom, Wasser und Gas nachdenkt, beschreibt nur die Zuverlässigkeit dieser Netze. Allerdings gibt bei keiner der bekannten Netzstrukturen, die wir national und international betreiben einen Anlass zur Ruhe. Schon wenn rund 12 Prozent der Backbone-Knoten im Internet beschädigt werden durch Angreifer, Viren oder gar einen umfassenden Stromausfall, zeigten die Browser eine weiße Kuh im Schnee.
Die Forscher haben mit ihrem neuen Algorithmus auch errechnet, dass man nur knapp 6 Prozent aller Netzwerkverbindungen überarbeiten müsste, um die Ausfallssicherheit um 55 Prozent zu erhöhen. In Sachen Internet sind vor allem die transnationalen Knotenpunkte besonders optimierungsbedürftig.
Einfach alles mit allem zu verbinden ist offenbar einfach nur besser als eine Sterntopologie, bei der ein Knoten mit allen anderen verbunden ist. Robust oder gar optimal ist das Ganze aber noch lange nicht.
Foto: clarita
Artikel per E-Mail verschicken