Strona główna : Bity i bajty : Definicja Unicode

Unicode

Unicode jest uniwersalny kodowanie znaków standard. Określa sposób indywidualny znaków są reprezentowane w plikach tekstowych, strony internetowei inne typy dokumenty.

w odróżnieniu ASCII, który został zaprojektowany do reprezentowania tylko podstawowych znaków angielskich, Unicode został zaprojektowany do obsługi znaków ze wszystkich języków na całym świecie. Standardowy zestaw znaków ASCII obsługuje tylko 128 znaków, podczas gdy Unicode może obsługiwać około 1,000,000 XNUMX XNUMX znaków. Podczas gdy ASCII używa tylko jednego bajt aby przedstawić każdy znak, Unicode obsługuje do 4 bajtów dla każdego znaku.

Istnieje jednak kilka różnych typów kodowania Unicode UTF-8 i UTF-16 są najbardziej powszechne. UTF-8 stało się standardowym kodowaniem znaków używanym w Sieć i jest również domyślnym kodowaniem używanym przez wiele osób oprogramowanie programy. Podczas gdy UTF-8 obsługuje do czterech bajtów na znak, byłoby nieefektywne użycie czterech bajtów do reprezentowania często używanych znaków. Dlatego UTF-8 używa tylko jednego bajtu do reprezentowania typowych znaków angielskich. Znaki europejskie (łacińskie), hebrajskie i arabskie są reprezentowane przez dwa bajty, podczas gdy trzy bajty są używane do znaków chińskich, japońskich, koreańskich i innych azjatyckich. Dodatkowe znaki Unicode można przedstawić za pomocą czterech bajtów.

https://TechLib.com/definition/unicode

TechLib - słownik komputerowy Tech Lib

Ta strona zawiera techniczną definicję Unicode. Wyjaśnia w terminologii komputerowej, co oznacza Unicode i jest jednym z wielu terminów komputerowych w słowniku TechLib.

Wszystkie definicje na stronie TechLib są napisane tak, aby były dokładne pod względem technicznym, ale także łatwe do zrozumienia. Jeśli uznasz, że ta definicja Unicode jest pomocna, możesz odwołać się do niej, korzystając z powyższych linków cytowania.