Strona główna : Terminy techniczne : Definicja gigaflopów

Gigaflops

Gigaflops to jednostka miary używana do pomiaru wydajności jednostki zmiennoprzecinkowej komputera, powszechnie nazywanej FPU. Jeden gigaflop to jeden miliard (1,000,000,000 XNUMX XNUMX XNUMX) flopsów lub operacje zmiennoprzecinkowe na sekundę.

Termin „gigaflops” wydaje się być liczbą mnogą, ponieważ kończy się na „s”, ale w rzeczywistości jest to słowo w liczbie pojedynczej, ponieważ FLOPS jest akronimem oznaczającym „operacje zmiennoprzecinkowe na sekundę”. Dlatego też gigaflops jest czasami zapisywany jako „gigaFLOPS”. Ponieważ gigaflops mierzy, ile miliardów plików zmiennoprzecinkowych mają obliczenia, które procesor może wykonać w każdej sekundzie, służy to jako dobry wskaźnik surowej wydajności procesora. Jednak ponieważ nie mierzy liczby całkowitej obliczeń, gigaflopów nie można używać jako kompleksowego środka pomiaru ogólnej wydajności procesora.

TechLib - słownik komputerowy Tech Lib

Ta strona zawiera techniczną definicję gigaflopsów. Wyjaśnia w terminologii komputerowej, co oznacza gigaflops i jest jednym z wielu terminów technicznych w słowniku TechLib.

Wszystkie definicje na stronie TechLib są napisane tak, aby były poprawne technicznie, ale także łatwe do zrozumienia. Jeśli uznasz tę definicję gigaflopsa za pomocną, możesz odwołać się do niej, korzystając z linków cytowania powyżej.