Supercomputing wegweisend für die Informatik?

Hans Werner Meuer, langjähriger Leiter des Rechenzentrums der Universität Mannheim und Veranstalter der jährlichen internationalen Supercomputer-Konferenz, kam gemeinsam mit Erich Strohmeier und Jack Dongarra 1993 auf die gute Idee, mittels eines einfachen Benchmarks halbjährlich die Liste der 500 leistungsfähigsten Supercomputer der Welt zu erstellen. Schon wegen der Einfachheit der Benchmarks wird die TOP500-Liste, trotz methodischer Bedenken, heute weltweit anerkannt und gibt eine zuverlässige Übersicht über den Stand der Installationen. In seinem Beitrag beschreibt Hans Meuer die außerordentlich dynamische Entwicklung bezüglich der Architekturen, der Hersteller, der Prozessoreigenschaften, der Anwendungen und der Aufstellungsorte der einschlägigen Rechner. Die Dynamik in der Entwicklung ist atemberaubend. Dass heute mehr als die Hälfte der Systeme im Umfeld der Privatwirtschaft stehen, zeigt, dass die Entwicklung neuer Produkte und Dienstleistungen in vielen Fällen auf Supercomputer angewiesen ist. Supercomputer und Supercomputing sind also Schlüsseltechnologien für die Entwicklung der Technologieländer der ersten Reihe, inzwischen aber eben auch für die Schwellenländer, wie die Statistik zeigt. Daher ist es bedenklich, dass die europäischen Länder im Vergleich zu den USA nur eine untergeordnete Rolle in der Ausstattung mit Rechnern der höchsten Leistungsklasse spielen. Die politische Anstrengung zur Etablierung europäischer Zentren für Supercomputing, die Schaffung einer Höchstleistungsrechnerinfrastruktur mit Bundesund Landeshöchstleistungsrechnern sind die Ziele des neu gegründeten Gauß-Zentrums für Supercomputing und der Gauß-Allianz in Deutschland. Damit soll sichergestellt werden, dass nicht nur ausreichend Großrechnerkapazität verfügbar ist, sondern dass auch die notwendigen technischen Kompetenzen ausgebildet und weiterentwickelt werden, von der Definition paralleler Algorithmen und Programme über geeignete Programmierwerkzeuge bis hin zum Entwurf entsprechender Systemarchitekturen. Die Entwicklung von Multicore-Architekturen als Basis aller Mikroprozessorsysteme (vergleiche Aktuelles Schlagwort Band 29, Nr. 5) führt dazu, dass grobkörnig parallele Anwendungen zum Standard aller künftigen Rechnersysteme werden. Die im Bereich der numerischen Simulation und des Höchstleistungsrechnens entwickelten Methoden der Parallelisierung verlassen also künftig die Nische der TOP500 und werden zum ,,täglichen Brot“ des Informatikers. Umso wichtiger ist es, dass Deutschland im Bereich des Supercomputing wieder aufholt. Mathias Klier von der Universität Augsburg behandelt in seinem Hauptartikel ,,Metriken zur Bewertung der Datenqualität“. Die Reihe der Beiträge in der Student’s Corner setzen wir mit Marco Franke ,,Ein KI-Verfahren für das Kartenspiel Magic“ fort. Die Historischen Notizen befassen sich mit der Rolle der Mathematik in der Kryptologie mit einem weiteren Beitrag von F.L. Bauer. Weiterhin umfasst die Ausgabe die Rubrik Dueck-beta-inside, das Forum mit Leserbriefen und Berichten sowie GI und SI Mitteilungen. Wir gedenken in diesem Heft Bernd Reuse, der über seine langjährige Tätigkeit im Bundesministerium für Forschung und Technologie die Entwicklung der Informatik in Deutschland maßgeblich begleitet hat. Wir trauern auch um Josef Weizenbaum, dessen Lebensleistung in einem Nachruf von F.L. Bauer gewürdigt wird. Ich hoffe, Sie alle auf der GI Jahrestagung in München wieder zu treffen.