Strona główna : Bity i bajty : Definicja bitu

Bit

Bit (skrót od „binary digit”) to najmniejsza jednostka miary używana do kwantyfikacji komputera data. Zawiera pojedynczy plik dwójkowy wartość 0 lub 1.

Podczas gdy pojedynczy bit może zdefiniować plik boolean wartość True (1) lub False (0), pojedynczy bit ma niewiele innego zastosowania. Dlatego w pamięci komputera bity są często grupowane w 8-bitowe klastry o nazwie bajtów. Ponieważ bajt zawiera osiem bitów, z których każdy ma dwie możliwe wartości, jeden bajt może mieć 28 lub 256 różnych wartości.

Pojęcia „bity” i „bajty” są często mylone, a nawet używane zamiennie, ponieważ brzmią podobnie i oba są skracane do litery „B”. Jednak przy poprawnym zapisie bity są skracane małą literą „b”, a bajty są skracane wielką literą „B”. Ważne jest, aby nie mylić tych dwóch terminów, ponieważ każdy pomiar w bajtach zawiera osiem razy więcej bitów. Na przykład mały tekst filet czyli o rozmiarze 4 KB zawiera 4,000 bajtów lub 32,000 XNUMX bitów.

Ogólnie pliki, urządzenia pamięci masowej, pojemność przechowywania są mierzone w bajtach, podczas gdy szybkości przesyłania danych są mierzone w bitach. Na przykład plik SSD może mieć pojemność 240 GB, a plik pobieranie może przesyłać z prędkością 10 Mbps. Dodatkowo do opisu procesora używane są bity architektura, na przykład procesor 32-bitowy lub 64-bitowy.

TechLib - słownik komputerowy Tech Lib

Ta strona zawiera techniczną definicję Bit. Wyjaśnia w terminologii komputerowej, co oznacza Bit i jest jednym z wielu terminów komputerowych w słowniku TechLib.

Wszystkie definicje na stronie TechLib są napisane tak, aby były dokładne pod względem technicznym, ale także łatwe do zrozumienia. Jeśli uznasz tę definicję bitu za pomocną, możesz odwołać się do niej, korzystając z powyższych linków cytowania.