Supercomputing ist exklusives Rechnen an den äussersten Grenzen der Berechenbarkeit. Es ist also umstritten, politisch attraktiv und kostet viel Geld. David Gugerli und Ricky Wichum zeigen, wie sich Höchstleistungsrechnen in Stuttgart seit 1970 entwickelt hat - mit vielen überraschenden Wendungen, Krisen im Betrieb und neuen technischen Grenzen. So landete der Ausbau des Rechenzentrums in den 1970er-Jahren bei der Installation eines veralteten Supercomputers, und die spektakuläre Anschaffung des schnellsten Rechners der Welt in den 1980er-Jahren erzeugte über viele Jahre hinweg eine aufregende Suche nach Nutzern und geeigneten Betriebsformen. Als Internetze in den 1990er-Jahren globale Verbindungen möglich machten, war Stuttgart ganz vorne dabei und musste nach transatlantischen Experimenten feststellen, dass die Frage nach dem Supercomputing im eigenen Land entschieden wird. Sorgfältig betreute «User» und ein kooperatives deutsches Angebot für Europa standen in den 2000er-Jahren im Vordergrund. Inzwischen zeichnen sich bei der Hardware Wachstumsgrenzen ab, mit denen bisher niemand gerechnet hatte. Aus technikhistorischer Perspektive gilt weiterhin: Supercomputing geht nur dann, wenn Rechner, Wissenschaft, Industrie und Politik immer wieder neu konfiguriert werden.