Als Supercomputer oder Superrechner werden die schnellsten Computer ihrer Zeit bezeichnet. Dabei ist es unerheblich, auf welcher Bauweise der Computer beruht, solange es sich um einen universal einsetzbaren Rechner handelt. Ein typisches Merkmal eines modernen Supercomputers ist seine große Anzahl an Prozessoren, die auf gemeinsame Peripheriegeräte und einen teilweise gemeinsamen Hauptspeicher zugreifen können. Supercomputer werden häufig für Computersimulationen im Bereich des Hochleistungsrechnens eingesetzt.
Supercomputer spielen eine essentielle Rolle im wissenschaftlichen Rechnen und werden in diversen Disziplinen eingesetzt, etwa Simulationen im Bereich der Quantenmechanik, Wettervorhersagen, Klimatologie, Entdeckung von Öl- und Gasvorkommen, Molekulardynamik, Biologischen Makromolekülen, Kosmologie, Astrophysik, Fusionsforschung, Erforschung von Kernwaffentests bis hin zur Kryptoanalyse.
In Deutschland sind Supercomputer überwiegend an Universitäten und Forschungseinrichtungen wie etwa den Max-Planck-Institut zu finden. Wegen ihrer Einsatzmöglichkeiten fallen sie unter deutsche Gesetze zur Waffenexportkontrolle.
Geschichte und Aufbau
Supercomputer spalteten sich in der Geschichte der Computerentwicklung in den 1960er Jahren von den wissenschaftlichen Rechnern und den Großrechnern ab. Während Großrechner eher auf hohe Zuverlässigkeit hin optimiert wurden, wurden Supercomputer in Richtung hoher Rechenleistung optimiert. Der erste offiziell installierte Supercomputer Cray-1 schaffte 1976 130 MegaFLOPS.
Ursprünglich wurde die herausragende Rechenleistung durch maximale Ausnutzung der verfügbaren Technik erzielt, indem Konstruktionen gewählt wurden, die für größere Serienproduktion zu teuer waren (z. B. Flüssigkeitskühlung, exotische Bauelemente und Materialien, kompakter Aufbau für kurze Signalwege), die Zahl der Prozessoren war eher gering. Seit geraumer Zeit etablieren sich vermehrt sogenannte Cluster, bei denen eine große Anzahl von (meist preiswerten) Einzelrechnern zu einem großen Rechner vernetzt werden. Im Vergleich zu einem Vektorrechner besitzen die Knoten in einem Cluster eigene Peripherie und ausschließlich einen eigenen, lokalen Hauptspeicher. Cluster verwenden Standardkomponenten, deshalb bieten sie zunächst Kostenvorteile gegenüber Vektorrechnern. Sie erfordern aber einen weit höheren Programmieraufwand. Es ist abzuwägen, ob die eingesetzten Programme sich dafür eignen, auf viele Prozessoren verteilt zu werden.
Die Verbindungen zwischen Einzelcomputern werden bei Supercomputern mit speziellen Hochleistungsnetzwerken umgesetzt, verbreitet ist dabei unter anderem InfiniBand. Computer werden oft mit Beschleunigerkarten ausgestattet, etwa Grafikkarten oder der Intel Xeon Phi. Grafikkarten eignen sich zum Einsatz im High Performance Computing, weil sie exzellente Vektorrecheneinheiten darstellen und Probleme der Linearen Algebra effizient lösen. Die zugehörige Technik nennt sich General Purpose Computation on Graphics Processing Unit (GPGPU).
Bei Clustern werden die einzelnen Computer oft Knoten (englisch nodes) genannt und mittels Clustermanagament-Werkzeugen zentral konfiguriert und überwacht.
Betriebssystem und Programmierung
Während noch in den 1990er Jahren diverse Unix-Varianten bei Supercomputern verbreitet waren, hat sich in den 2000er Jahren die Freie Software Linux als Betriebssystem durchgesetzt. In der TOP500-Liste der schnellsten Computersysteme (Stand Juni 2012) werden insgesamt 462 ausschließlich unter Linux betriebene Systeme und 11 teilweise (CNK/SLES 9) unter Linux betriebene Systeme aufgelistet. Damit laufen 92,4 % der Systeme vollständig unter Linux. Fast alle anderen Systeme werden unter Unix oder Unix-artigen Systemen betrieben. Der im Desktop-Bereich größte Konkurrent Windows spielt im Bereich der Höchstleistungsrechner kaum eine Rolle (0,4 %).
Verwendete Programmiersprachen zur Programmierung von Programmen sind vor allem Fortran und C bzw. C++. Um möglichst schnellen Code zu generieren, wird meist auf Compiler der Supercomputer-Hersteller (etwa CRAY oder Intel) zurückgegriffen. Programme im High Performance Computing (HPC) werden typischerweise in zwei Kategorien eingeteilt:
- Shared-Memory-Parallelisierung, in der Regel lokal auf einem einzelnen Knoten. Hierzu sind Schnittstellen wie OpenMP oder TBB verbreitet. Ein einzelner Betriebssystem Prozess beschäftigt in der Regel alle zur Verfügung stehenden CPU-Kerne bzw. CPUs.
- Distributed Memory-Parallelisierung: Ein Betriebssystem Prozess läuft auf einem Kern und muss zur gemeinschaftlichen Problemlösung Nachrichten mit anderen Prozessen austauschen (Message passing). Dies geht Knotenintern oder über Knotengrenzen hinweg. Das Message Passing Interface ist der Defaktostandard, um diese Art Programme zu programmieren.
In der Praxis findet man oft die Kombination beider Parallelisierungstechniken, die oft Hybrid-Parallelisierung genannt wird. Sie ist deswegen populär, weil Programme oft nicht gut genug skalieren, um alle Kerne eines Supercomputers mit reinem message passing auszulasten.
Wenn Supercomputer mit Beschleunigerkarten (Grafikkarten oder Rechenkarten) ausgestattet sind, zergliedert sich die Programmierung nochmals auf die des Hostcomputers und die der Beschleunigerkarte. OpenCL und CUDA sind dabei zwei Schnittstellen, die die Programmierung derartiger Komponenten ermöglichen.
Hochleistungsrechner werden in der Regel nicht von einem einzigen Benutzer bzw. Programm genutzt. Stattdessen werden Job-Scheduler wie Simple Linux Utility for Resource Management (SLURM) oder IBMs LoadLeveler verwendet, um einer großen Anzahl an Benutzern zu ermöglichen, kurzzeitig Teile des Supercomputers zu verwenden. Die Zuteilung erfolgt dabei exklusiv auf Ebene von Knotenzuordnung oder Prozessorzuordnung. Die verbrauchte Prozessorzeit wird dabei in Einheiten wie CPU-Stunden oder Knoten-Stunden gemessen und ggf. abgerechnet.
Einsatzzweck
Die Herstellungskosten eines Supercomputers aus der TOP10 bewegen sich derzeit in einem sehr hohen zweistelligen, oftmals bereits dreistelligen Euro-Millionenbetrag.
Die heutigen Supercomputer werden überwiegend zu Simulationszwecken eingesetzt. Je realitätsnäher eine Simulation komplexer Zusammenhänge wird, desto mehr Rechenleistung wird in der Regel benötigt. Ein Vorteil der Supercomputer ist, dass sie durch ihre extrem schnelle und damit große Rechenleistung immer mehr Interdependenzen berücksichtigen können. Dies erlaubt das Einbeziehen weitreichender, oftmals auch unscheinbarer Neben- oder Randbedingungen zur eigentlichen Simulation und gewährleistet dadurch ein immer aussagekräftiges Gesamtergebnis.
Die derzeitigen Haupteinsatzgebiete der Supercomputer umfassen dabei die Bereiche Biologie, Chemie, Geologie, Luft- und Raumfahrt, Medizin, Wettervorhersage, Klimaforschung, Militär und Physik.
Im militärischen Bereich haben Supercomputer es z. B. ermöglicht, neue Atombombenentwicklungen durch Simulation, ohne Stützdaten durch weitere unterirdische Atombombenversuche, durchzuführen. Die Bereiche kennzeichnen sich dadurch, dass es sich um sehr komplexe Systeme bzw. Teilsysteme handelt, die in weit reichendem Maße miteinander verknüpft sind. So haben Veränderungen in dem einen Teilsystem meist mehr oder minder starke Auswirkungen auf benachbarte oder angeschlossene Systeme. Durch den Einsatz von Supercomputern wird es immer leichter möglich, viele solcher Konsequenzen zu berücksichtigen oder sogar zu prognostizieren, wodurch bereits weit im Vorfeld etwaige Gegenmaßnahmen getroffen werden könnten. Dies gilt z. B. bei Simulationen zum Klimawandel, der Vorhersagen von Erdbeben oder Vulkanausbrüchen sowie in der Medizin bei der Simulation neuer Wirkstoffe auf den Organismus. Solche Simulationen sind logischerweise, ganz unabhängig von der Rechenleistung, nur so genau, wie es die programmierten Parameter bzw. Modelle zur Berechnung zulassen. Die enormen Investitionssummen in die stetige Steigerung der FLOPS und damit die Entwicklung von immer schnelleren Supercomputern werden vor allem mit den Nutzenvorteilen und dem eventuellen „Wissensvorsprung“ für die Menschheit gerechtfertigt, weniger aus den Aspekten des allgemeinen technischen Fortschritts.
Ausgewählte Superrechner
Aktuelle Supperrechner – Die schnellsten Superrechner nach Leistung werden heutzutage halbjährlich in der TOP500-Liste aufgeführt. Als Bewertungsgrundlage dient der Linpack-Benchmark. Die schnellsten Superrechner nach Energieeffizienz bzw. MFLOPS/W werden seit November 2007 in der Green500-Liste geführt. Den größten Anteil (117) der Top 500 leistungsstärksten Rechner weltweit konnte 2018 Lenovo installieren.
Diese Green500-Liste vom November 2014 weist länderweise gemittelte Effizienzen von 1895 MFLOPS/W (Italien) bis hinunter zu 168 MFLOPS/W (Malaysia) auf

Ausgewählte aktuelle Superrechner (weltweit)
| Name | Standort | TeraFLOPS | Konfiguration | Energiebedarf | Zweck |
|---|---|---|---|---|---|
| Summit | Oak Ridge National Laboratory (Tennessee, USA) | 122.300,00 | 9.216 POWER9 CPUs (22 Kerne, 3,1 GHz), 27,648 Nvidia Tesla V100 GPUs | 15.000 kW | Physikalische Berechnungen |
| Sunway TaihuLight | National Supercomputing Center, Wuxi, Jiangsu | 93.014,60 | 40.960 SunwaySW26010 (260 Kerne, 1,45 GHz), 1,31 PB RAM, 40 Serverschränke mit jeweils 4 × 256 Nodes, insgesamt 10.649.600 Kerne | 15.370 kW | Wissenschaftliche und kommerzielle Anwendungen |
| Sierra | Lawrence Livermore National Laboratory (Kalifornien, USA) |
71.600,00 | IBM Power9 (22 Kerne, 3,1 GHz) 1,5 PB RAM | ~12.000 kW | physikalische Berechnungen (z. B. Simulation von Kernwaffentests) |
| Tianhe-2 | National University for Defense Technology, Changsha, China finaler Standort: National Supercomputer Center (Guangzhou, China) |
33.862,70 aufgerüstet auf 61.400,00 | 32.000 Intel Xeon E5-2692 CPUs (Ivy Bridge, 12 Kerne, 2,2 GHz) + 48.000 Intel Xeon Phi 31S1P Co-Prozessoren (57 Kerne, 1,1 GHz), 1,4 PB RAM | 17.808 kW | Chemische und physikalische Berechnungen (z. B. Untersuchungen von Erdöl und Flugzeugentwicklung) |
| Piz Daint | Swiss National Supercomputing Centre(CSCS) (Schweiz) | 19.590,00 | Cray XC50, Xeon E5-2690v3 12C 2.6GHz, Aries interconnect, NVIDIA Tesla P100, Cray Inc. (361.760 Kerne) | 2.272 kW | wissenschaftliche und kommerzielle Anwendungen |
| Titan | Oak Ridge National Laboratory(Tennessee, USA) | 17.590,00 | Cray XK7, 18.688 AMD Opteron 6274 CPUs (16 Kerne, 2,20 GHz) + 18.688 Nvidia Tesla K20 GPGPUs, 693,5 TB RAM | 8.209 kW | Physikalische Berechnungen |
| Sequoia | Lawrence Livermore National Laboratory (Kalifornien, USA) |
17.173,20 | IBM BlueGene/Q, 98.304 Power BQC-Prozessoren (16 Kerne, 1,60 GHz), 1,6 PB RAM | 7.890 kW | Simulation von Kernwaffentests |
| K computer | Advanced Institute for Computational Science(Japan) | 10.510,00 | 88.128 SPARC64-VIII 8-Core-Prozessoren (2,00 GHz), 1.377 TB RAM | 12.660 kW | Chemische und physikalische Berechnungen |
| Mira | Argonne National Laboratory(Illinois, USA) | 8.586,6 | IBM BlueGene/Q, 49.152 Power BQC-Prozessoren (16 Kerne, 1,60 GHz) | 3.945 kW | Entwicklung neuer Energiequellen, Technologien und Materialien, Bioinformatik |
| Hazel Hen | Höchstleistungsrechenzentrum Stuttgart (Deutschland) | 5.640,2 | Cray Aries Netzwerk; 7712 Nodes mit je 24 Kernen (Intel Xeon E5-2680 v3, 30M Cache, 2,50 GHz) | 3.200 kW | Wissenschaftliche und kommerzielle Anwendungen |
| JUQUEEN | Forschungszentrum Jülich (Deutschland) |
5.008,9 | IBM BlueGene/Q, 28.672 Power BQC-Prozessoren (16 Kerne, 1,60 GHz), 448 TB RAM | 2.301 kW | Materialwissenschaften, theoretische Chemie, Elementarteilchenphysik, Umwelt, Astrophysik |
| Phase 1 – Cray XC30 | Europäisches Zentrum für mittelfristige Wettervorhersage(Reading, England) | 3.593,00 | 7.010 Intel E5-2697v2 „Ivy Bridge“ (12 Kerne, 2,7 GHz) | ||
| SuperMUCIBM | Leibniz-Rechenzentrum (LRZ) (Garching bei München, Deutschland) |
2.897,00 | 18.432 Xeon E5-2680 CPUs (8 Kerne, 2,7 GHz) + 820 Xeon E7-4870 CPUs (10 Kerne, 2,4 GHz), 340 TB RAM | 3.423 kW | Kosmologie über die Entstehung des Universums, Seismologie/Erdbebenvorhersage, uvm. |
| Stampede | Texas Advanced Computing Center (Texas, USA) |
5.168,10 | Xeon E5-2680 CPUs (8 Kerne, 2,7 GHz) + Xeon E7-4870 CPUs, 185 TB RAM | 4.510 kW | Chemische und physikalische, biologische (z. B. Proteinstrukturanalyse), geologische (z. B. Erdbebenvorhersage), medizinische Berechnungen (z. B. Krebswachstum) |
| Tianhe-1A | National Supercomputer Center (Tianjin, China) | 2.266,00 | 14.336 Intel 6-Core-Xeon X5670 CPUs (2,93 GHz) + 7.168 Nvidia Tesla M2050GPGPUs, 224 TB RAM | 4.040 kW | Chemische und physikalische Berechnungen (z. B. Untersuchungen von Erdöl und Flugzeugentwicklung) |
| Dawning Nebulae | National Supercomputing Center (Shenzhen, China) | 1.271,00 | Hybridsystem aus 55.680 Intel Xeon-Prozessoren (2,66 GHz) + 64.960 Nvidia Tesla GPGPU (1,15 GHz), 224 TB RAM | 2.580 kW | Meteorologie, Finanzwirtschaft u. a. |
| IBM Roadrunner | Los Alamos National Laboratory (New Mexico, USA) | 1.105,00 | 6.000 AMD Dual-Core-Prozessoren (3,2 GHz), 13.000 IBM Cell-Prozessoren (1,8 GHz), 103 TB RAM | 4.040 kW | Physikalische Simulationen (z. B. Atomwaffensimulationen) |
| HERMIT | Höchstleistungsrechenzentrum Stuttgart (Deutschland) | 1.045,00 | Stufe 1: 7.104 AMD Opteron CPUs (Opteron 6276, 16 Kerne, 2,3 GHz), 126 TB RAM (CRAY XE6) | Wissenschaftliche und kommerzielle Anwendungen | |
| N. n. | Universität Bielefeld(Deutschland) | 529,70 | 208x Nvidia Tesla M2075-GPGPUs + 192x Nvidia GTX-580-GPUs + 152x Dual Quadcore Intel Xeon 5600 CPUs, 9,1 TB RAM | Fakultät für Physik: Numerische Simulationen, physikalische Berechnungen[15][16] | |
| SGI Altix | NASA (USA) | 487,00 | 51.200 4-Core-Xeon, 3 GHz, 274,5 TB RAM | 3.897 kW | Weltraumforschung |
| BlueGene/L | Lawrence Livermore National Laboratory Livermore (USA) | 478,20 | 212.992 PowerPC 440 Prozessoren 700 MHz, 73.728 GB RAM | 924 kW | Physikalische Simulationen |
| Blue Gene Watson | IBM Thomas J. Watson Research Center (USA) | 91,29 | 40.960 PowerPC 440 Prozessoren, 10.240 GB RAM | 448 kW | Forschungsabteilung von IBM, aber auch Anwendungen aus Wissenschaft und Wirtschaft |
| ASC Purple | Lawrence Livermore National Laboratory Livermore (USA) | 75,76 | 12.208 Power5CPUs, 48.832 GB RAM | 7.500 kW | Physikalische Simulationen (z. B. Atomwaffensimulationen) |
| MareNostrum | Universitat Politècnica de Catalunya (Spanien) |
63,8 | 10.240 PowerPC 970MP 2,3 GHz, 20,4 TB RAM | 1.015 kW | Klima- und Genforschung, Pharmazie |
| Columbia | NASA Ames Research Center(Silicon Valley, Kalifornien, USA) | 51,87 | 10.160 Intel Itanium 2Prozessoren (Madison Kern), 9 TB RAM | Klimamodellierung, astrophysikalische Simulationen |
Die geschichtlichen schnellsten ihrer Zeit
Hier sieht man in der FLOPS entwicklung wie sich die Zahl in den Jahre in jüngster Zeit immer schneller in die Höhe entwickelt.

Nachfolgende Tabelle (Stand Juni 2017) listet einige der schnellsten Superrechner ihrer jeweiligen Zeit auf:
| Jahr | Supercomputer | Spitzengeschwindigkeiten bis 1959 in Operationen pro Sekunde (OPS) ab 1960 in FLOPS |
Ort |
|---|---|---|---|
| 1906 | Babbage Analytical Engine, Mill | 0,3 | RW Munro, Woodford Green, Essex, England |
| 1928 | IBM 301 | 1,7 | verschiedene Orte weltweit |
| 1931 | IBM Columbia Difference Tabulator | 2,5 | Columbia University |
| 1940 | Zuse Z2 | 3,0 | Berlin, Deutschland |
| 1941 | Zuse Z3 | 5,3 | Berlin, Deutschland |
| 1942 | Atanasoff-Berry Computer (ABC) | 30,0 | Iowa State University, Ames (Iowa), USA |
| TRE Heath Robinson | 200,0 | Bletchley Park, Milton Keynes, England | |
| 1.000,0 | entspricht 1 kilo-OPS | ||
| 1943 | Flowers Colossus | 5.000,0 | Bletchley Park, Milton Keynes, England |
| 1946 | UPenn ENIAC (vor den Modifikationen von 1948+) |
50.000,0 | Aberdeen Proving Ground, Maryland, USA |
| 1954 | IBM NORC | 67.000,0 | U.S. Naval Proving Ground, Dahlgren, Virginia, USA |
| 1956 | MIT TX-0 | 83.000,0 | Massachusetts Inst. of Technology, Lexington, Massachusetts, USA |
| 1958 | IBM SAGE | 400.000,0 | 25 Stützpunkte der U.S. Air Force in den USA und ein Ort in Kanada (52 Computer) |
| 1960 | UNIVAC LARC | 500.000,0 | Lawrence Livermore National Laboratory, Kalifornien, USA |
| 1.000.000,0 | entspricht 1 MFLOPS, 1 Mega-FLOPS | ||
| 1961 | IBM 7030 „Stretch“ | 1.200.000,0 | Los Alamos National Laboratory, New Mexico, USA |
| 1964 | CDC 6600 | 3.000.000,0 | Lawrence Livermore National Laboratory, Kalifornien, USA |
| 1969 | CDC 7600 | 36.000.000,0 | |
| 1974 | CDC STAR-100 | 100.000.000,0 | |
| 1975 | Burroughs ILLIAC IV | 150.000.000,0 | NASA Ames Research Center, Kalifornien, USA |
| 1976 | Cray-1 | 250.000.000,0 | Los Alamos National Laboratory, New Mexico, USA (weltweit über 80 Mal verkauft) |
| 1981 | CDC Cyber 205 | 400.000.000,0 | verschiedene Orte weltweit |
| 1983 | Cray X-MP/4 | 941.000.000,0 | Los Alamos National Laboratory; Lawrence Livermore National Laboratory; Battelle; Boeing |
| 1.000.000.000,0 | entspricht 1 GFLOPS, 1 Giga-FLOPS | ||
| 1984 | M-13 | 2.400.000.000,0 | Scientific Research Institute of Computer Complexes, Moskau, UdSSR |
| 1985 | Cray-2/8 | 3.900.000.000,0 | Lawrence Livermore National Laboratory, Kalifornien, USA |
| 1989 | ETA10-G/8 | 10.300.000.000,0 | Florida State University, Florida, USA |
| 1990 | NEC SX-3/44R | 23.200.000.000,0 | NEC Fuchu Plant, Fuchū, Japan |
| 1993 | Thinking Machines CM-5/1024 | 65.500.000.000,0 | Los Alamos National Laboratory; National Security Agency |
| Fujitsu Numerical Wind Tunnel | 124.500.000.000,0 | National Aerospace Laboratory, Tokio, Japan | |
| Intel Paragon XP/S 140 | 143.400.000.000,0 | Sandia National Laboratories, New Mexico, USA | |
| 1994 | Fujitsu Numerical Wind Tunnel | 170.400.000.000,0 | National Aerospace Laboratory, Tokio, Japan |
| 1996 | Hitachi SR2201/1024 | 220.400.000.000,0 | Universität Tokio, Japan |
| 1996 | Hitachi/Tsukuba CP-PACS/2048 | 368.200.000.000,0 | Center for Computational Physics, University of Tsukuba, Tsukuba, Japan |
| 1.000.000.000.000,0 | entspricht 1 TFLOPS, 1 Tera-FLOPS | ||
| 1997 | Intel ASCI Red/9152 | 1.338.000.000.000,0 | Sandia National Laboratories, New Mexico, USA |
| 1999 | Intel ASCI Red/9632 | 2.379.600.000.000,0 | |
| 2000 | IBM ASCI White | 7.226.000.000.000,0 | Lawrence Livermore National Laboratory, Kalifornien, USA |
| 2002 | NEC Earth Simulator | 35.860.000.000.000,0 | Earth Simulator Center, Yokohama-shi, Japan |
| 2004 | SGI Project Columbia | 42.700.000.000.000,0 | Project Columbia, NASA Advanced Supercomputing Facility, USA |
| IBM BlueGene/L | 70.720.000.000.000,0 | U.S. Department of Energy/IBM, USA | |
| 2005 | IBM BlueGene/L | 136.800.000.000.000,0 | U.S. Department of Energy/U.S. National Nuclear Security Administration, Lawrence Livermore National Laboratory, Kalifornien, USA |
| 1.000.000.000.000.000,0 | entspricht 1 PFLOPS, 1 Peta-FLOPS | ||
| 2008 | IBM Roadrunner | 1.105.000.000.000.000,0 | U.S. Department of Energy/U.S. National Nuclear Security Administration, Los Alamos National Laboratory |
| 2010 | Tianhe-1A | 2.507.000.000.000.000,0 | National Supercomputer Center in Tianjin, China |
| 2011 | K computer | 10.510.000.000.000.000,0 | Advanced Institute for Computational Science, Japan |
| 2012 | Sequoia | 16.324.750.000.000.000,0 | Lawrence Livermore National Laboratory, Kalifornien, USA |
| 2012 | Titan | 17.590.000.000.000.000,0 | Oak Ridge National Laboratory, Tennessee, USA |
| 2013 | Tianhe-2 | 33.863.000.000.000.000,0 | National Supercomputer Center in Guangzhou, China |
| 2016 | Sunway TaihuLight | 93.000.000.000.000.000,0 | National Supercomputing Center, Wuxi, China |
| 2018 | Summit | 200.000.000.000.000.000,0 | Oak Ridge National Laboratory, Tennessee, USA |
| 1.000.000.000.000.000.000,0 | entspricht 1 EFLOPS, 1 Exa-FLOPS | ||
| Zukunft | Tianhe-3 | 1.000.000.000.000.000.000,0 | China, Nationales Zentrum für Supercomputer – Baustart Feb. 2017, Fertigstellung des Prototyps für Anfang 2018 angekündigt |
Trägt man die FLOPs der schnellsten Computer ihrer Zeit gegen die Zeit auf, erhält man eine exponentielle Kurve, logarithmisch in etwa ein Gerade, wie im folgenden Graph dargestellt.
![]()
Graph zur Rechengeschwindigkeit von Supercomputern, logarithmisch, mit annähernder Moore-Kurve (Stand 2016)
Quelle: https://de.wikipedia.org/wiki/Supercomputer