Strona główna : Terminy techniczne : Definicja gigaflopów

Gigaflops

Gigaflop to jednostka miary używana do pomiaru wydajności jednostki zmiennoprzecinkowej komputera, powszechnie nazywana FPU. Jeden gigaflop to jeden miliard (1,000,000,000 XNUMX XNUMX XNUMX) FLOPSlub operacje zmiennoprzecinkowe na sekundę.

Termin „gigaflops” wydaje się być liczbą mnogą, ponieważ kończy się na „s”, ale w rzeczywistości jest to słowo w liczbie pojedynczej, ponieważ FLOPS jest akronimem oznaczającym „operacje zmiennoprzecinkowe na sekundę”. Dlatego też gigaflops jest czasami zapisywany jako „gigaFLOPS”. Ponieważ gigaflop mierzy, ile miliardów plików zmiennoprzecinkowy obliczenia, które procesor może wykonać w każdej sekundzie, służy to jako dobry wskaźnik surowej wydajności procesora. Jednak ponieważ nie mierzy liczba całkowita obliczeń, gigaflopów nie można używać jako kompleksowego środka pomiaru ogólnej wydajności procesora.

https://TechLib.com/definition/gigaflops

TechLib - słownik komputerowy Tech Lib

Ta strona zawiera techniczną definicję Gigaflopów. Wyjaśnia w terminologii komputerowej, co oznacza Gigaflops i jest jednym z wielu terminów technicznych w słowniku TechLib.

Wszystkie definicje na stronie TechLib są napisane tak, aby były poprawne technicznie, ale także łatwe do zrozumienia. Jeśli uznasz tę definicję Gigaflopsa za pomocną, możesz odwołać się do niej, korzystając z linków cytowania powyżej.