Strona główna : Bity i bajty : Definicja Gigabit

Gigabit

Gigabit to 109 lub 1,000,000,000 Bity.

Jeden gigabit (w skrócie „Gb”) to 1,000 megabity lub 1,000,000 kilobity. Jest to jedna ósma wielkości gigabyte (GB).

Do pomiaru najczęściej używa się gigabitów szybkości przesyłania danych lokalnego sieci i I / O znajomości. Na przykład Gigabit Ethernet jest powszechny Ethernet standard obsługujący szybkości przesyłania danych na poziomie jednego gigabita na sekundę (Gbps) przez przewodową sieć Ethernet. Nowoczesne technologie I / O, takie jak USB 3.0 i Piorun są również mierzone w gigabitach na sekundę. USB 3.0 może przesyłać dane z prędkością do 5 Gb / s, podczas gdy Thunderbolt 1.0 może przesyłać dane dwukierunkowo z prędkością 10 Gb / s.

Chociaż gigabity i gigabajty brzmią podobnie, ważne jest, aby nie mylić tych dwóch terminów. Ponieważ w jednym jest osiem bitów bajt, w jednym gigabajcie jest również osiem gigabitów. Gigabity są najczęściej używane do opisywania prędkości przesyłania danych, a gigabajty są używane do pomiaru przechowywania danych.

TechLib - słownik komputerowy Tech Lib

Ta strona zawiera techniczną definicję Gigabit. Wyjaśnia w terminologii komputerowej, co oznacza Gigabit i jest jednym z wielu terminów komputerowych w słowniku TechLib.

Wszystkie definicje na stronie TechLib są napisane tak, aby były dokładne pod względem technicznym, ale także łatwe do zrozumienia. Jeśli uznasz, że ta definicja Gigabit jest pomocna, możesz odwołać się do niej, korzystając z linków cytowania powyżej.