Floating Point Operations Per Second


Floating Point Operations Per Second

Floating Point Operations Per Second (kurz FLOPS; englisch für Gleitkommaoperationen pro Sekunde) ist ein Maß für die Leistungsfähigkeit von Rechnersystemen[1] oder Prozessoren und bezeichnet die Anzahl der Gleitkommazahl-Operationen (Additionen oder Multiplikationen), die von ihnen pro Sekunde ausgeführt werden können.

Häufig wird als FLOP eine Gleitkommazahlen-Operation (englisch floating-point operation) bezeichnet, wodurch vereinzelt auch die Variante FLOP/s auftaucht, beide Varianten sind allerdings gleichbedeutend.

Inhaltsverzeichnis

Beschreibung

Die Anzahl der Gleitkommaoperationen ist nicht notwendigerweise direkt zur Taktgeschwindigkeit des Prozessors proportional, da – je nach Implementierung – Gleitkommaoperationen unterschiedlich viele Taktzyklen benötigen. Vektorprozessoren führen in jedem Takt bis zu einige tausend Operationen aus. So erreichen aktuelle Grafikkarten, die als Vektorprozessoren arbeiten, Rechenleistungen bis zu 4,64 TeraFLOPS (ATI Radeon HD 5970), was auch die Motivation für GPGPU ist.

Durch die FLOPS wird die gesamte Rechnerarchitektur, bestehend aus Hauptspeicher, Bus, Compiler, gemessen, nicht die reine Prozessorgeschwindigkeit. Meist wird, ebenso wie bei der Einheit IPS, eine Best-Case-Abschätzung oder gar ein nur theoretisch möglicher Wert angegeben.

Rechenleistung von Computersystemen

Der erste in der Praxis einsetzbare frei programmierbare Rechner, die elektromechanische Zuse Z3 aus dem Jahre 1941, schaffte knapp zwei Additionen pro Sekunde und damit 2 FLOPS. Andere Operationen dauerten jedoch teilweise wesentlich länger.

Die FLOPS eines Computers werden durch definierte Programmpakete (Benchmarks, etwa Linpack oder Livermore Benchmark) bestimmt.

In der Rangliste TOP500 werden die 500 schnellsten Computersysteme, gemessen an ihren FLOPS mit dem Linpack-Benchmark, aufgeführt.

Die über 515.000 Computer der Berkeley Open Infrastructure for Network Computing bringen es derzeit (Stand: April 2011)[2] auf eine Leistung von bis zu 8 PetaFLOPS was etwa 76% der Rechenleistung des derzeit schnellsten Supercomputers K computer mit 10,51 PetaFLOPS[3] und mehr als der siebenfachen Rechenleistung des IBM Roadrunners entspricht.

Wie auch PCs werden Supercomputer stetig kleiner. Auch das Verhältnis von Rechenleistung zum Bedarf an elektrischer Leistung wird besser, wobei die gesamte Energiezufuhr eher ansteigt. So benötigte der in der TOP500-Liste 11/2005 führende BlueGene/L von IBM für seine Leistung von rund 280 TeraFLOPS nur 70  Fläche und 1770 kW elektrische Leistung, was im Vergleich zum drei Jahre älteren Earth Simulator (35,86 TeraFLOPS) mit 3000 m² und 6000 kW eine deutliche Verbesserung darstellt.

Ein anderes Beispiel aus der Praxis: der im Juli 2005 schnellste Computer Deutschlands, ein 57 Mio. Euro teurer NEC mit 576 Hauptprozessoren in Stuttgart, bringt es auf bis zu 12,7 TeraFLOPS, und wurde optimistisch als 5000 mal schneller als ein „normaler“ PC bezeichnet. Die Betriebskosten (ohne Anschaffung) einer solchen Anlage beliefen sich nach Betreiberaussage inklusive Personal auf fünf bis sechs Euro pro Stunde, bei einem PC wurden vergleichsweise 30 bis 40 Cent pro Stunde angesetzt. Wegen der hohen Anschaffungskosten wurde eine derartig leistungsfähige Anlage allerdings zu einem Stundensatz von ca. 3000 Euro vermietet.

Ein interessanter Vergleich: Bereits im März 2006 wurde der neueste „schnellste“ Computer Deutschlands in Jülich in Betrieb genommen, der JUBL (Jülicher Blue Gene/L). Mit 45,6 TeraFLOPS bot er zu diesem Zeitpunkt als sechstschnellster Computer der Welt die Rechenleistung von 15.000 „normalen“ zeitgemäßen PCs. Interessant ist für die weitere Entwicklung die Einschätzung der Rechenzeit-Bedarfsentwicklung durch den Vorstandsvorsitzenden des Jülicher Forschungszentrums (03/2006): „Die Nachfrage nach Rechenzeit wird in den nächsten fünf Jahren noch um den Faktor 1000 steigen“.

Um die Leistung einordnen zu können: ein normaler PC mit einem Pentium 4-Prozessor bei einer Taktfrequenz von drei Gigahertz kann nach Angaben von IBM etwa sechs GigaFLOPS erreichen.

Beispiele der GFLOP-Werte an einigen CPUs[4]
Linpack 1kx1k (DP) Höchstleistung
(in GFLOPS)
Durchschnittsleistung
(in GFLOPS)
Effizienz
(in %)
Cell, 1 SPU, 3,2 GHz 1,83 1,45 79,23
Cell, 8 SPUs, 3,2 GHz 14,63 9,46 64,66
Pentium 4, 3,2 GHz 6,4 3,1 48,44
Pentium 4 + SSE3, 3,6 GHz 14,4 7,2 50,00
Core i7, 3,2 GHz, 4 Kerne 51,2 33,0 (HT enabled) [5] 64,45
Core i7, 3,47 GHz, 6 Kerne 83,2
Core i7 Sandy-Bridge, 3,4 GHz, 4 Kerne 102,5 92,3
Itanium, 1,6 GHz 6,4 5,95 92,97

Siehe auch

Quellenangaben

  1. Floating Point Operations per Second (Flops) – Glossareintrag bei heise online; Stand: 8. November 2010
  2. http://boinc.berkeley.edu/ Berkeley Open Infrastructure for Network Computing
  3. "K computer" Achieves Goal of 10 Petaflops
  4. IBM: Cell Broadband Engine Architecture and its first implementation
  5. http://www.tecchannel.de/pc_mobile/prozessoren/1775602/core_i7_test_intel_nehalem_quad_hyper_threading_speicher_benchmarks/index11.html

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Floating-Point Operations Per Second — (FLOPS) (opérations à virgule flottante par seconde) est une mesure commune de repère pour évaluer la vitesse des microprocesseurs. Les opérations en virgule flottante incluent toutes les opérations qui impliquent des nombres réels. De telles… …   Wikipédia en Français

  • Floating-point operations per second — (FLOPS) (opérations à virgule flottante par seconde) est une mesure commune de repère pour évaluer la vitesse des microprocesseurs. Les opérations en virgule flottante incluent toutes les opérations qui impliquent des nombres réels. De telles… …   Wikipédia en Français

  • Floating Point Operations per Second — (englisch für Gleitkommaoperationen pro Sekunde, Abk.: FLOPS) ist eine Maßeinheit für die Geschwindigkeit von Computersystemen oder Prozessoren und bezeichnet die Anzahl der Gleitkommazahl Operationen (Additionen oder Multiplikationen), die von… …   Deutsch Wikipedia

  • Floating Point Operations per Second —   [dt. »Gleitkommaoperationen pro Sekunde«], FLOPS …   Universal-Lexikon

  • million floating point operations per second — noun (computer science) a unit for measuring the speed of a computer system • Syn: ↑megaflop, ↑MFLOP • Topics: ↑computer science, ↑computing • Hypernyms: ↑unit of meas …   Useful english dictionary

  • trillion floating point operations per second — noun (computer science) a unit for measuring the speed of a computer system • Syn: ↑teraflop • Topics: ↑computer science, ↑computing • Hypernyms: ↑unit of measurement, ↑ …   Useful english dictionary

  • Giga Floating Point Operations — (Computers) unit of measurement equal to one billion floating point operations per second (used to evaluate processing speed), GIGAFLOP …   English contemporary dictionary

  • Floating point — In computing, floating point describes a method of representing real numbers in a way that can support a wide range of values. Numbers are, in general, represented approximately to a fixed number of significant digits and scaled using an exponent …   Wikipedia

  • Performance per watt — In computing, performance per watt is a measure of the energy efficiency of a particular computer architecture or computer hardware. Literally, it measures the rate of computation that can be delivered by a computer for every watt of power… …   Wikipedia

  • Flops — floating point operations per second …   Medical dictionary


Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.