Strona główna : Terminy techniczne : Definicja nanometrów

Nanometr

Nanometr (również „nanometr”) to jednostka miary używana do pomiaru długości. Jeden nanometr to jedna miliardowa metra, więc nanometrów z pewnością nie używa się do pomiaru dużych odległości. Zamiast tego służą do pomiaru bardzo małych obiektów, takich jak struktury atomowe lub tranzystory znalezione w nowoczesnym procesory.

Pojedynczy nanometr jest milion razy mniejszy niż milimetr. Jeśli weźmiesz jedną tysięczną milimetra, masz jeden mikrometr lub pojedynczy mikron. Jeśli podzielisz ten mikron przez 1,000, otrzymasz nanometr. Nie trzeba dodawać, że nanometr jest niezwykle mały.

Ponieważ układy scalone, na przykład komputer Procesoryzawierają mikroskopijne elementy, do pomiaru ich wielkości przydatne są nanometry. W rzeczywistości różne epoki procesorów są zdefiniowane w nanometrach, w których liczba określa odległość między tranzystorami a innymi elementami w procesorze. Im mniejsza liczba, tym więcej tranzystorów można umieścić w tym samym obszarze, co pozwala na szybsze i bardziej wydajne projekty procesorów.

Na przykład linia procesorów Intela obejmuje chipy oparte na procesach 90-nanometrowych, 65-nanometrowych, 45-nanometrowych i 32-nanometrowych. W 2011 roku Intel wypuścił chipy, które zostały stworzone w procesie 22-nanometrowym. Projekt Intela „Broadwell”, wprowadzony w 2014 roku, wykorzystuje proces 14-nanometrowy.

Skrót: nm

TechLib - słownik komputerowy Tech Lib

Ta strona zawiera techniczną definicję nanometru. Wyjaśnia w terminologii komputerowej, co oznacza Nanometr i jest jednym z wielu terminów technicznych w słowniku TechLib.

Wszystkie definicje na stronie TechLib są napisane tak, aby były dokładne pod względem technicznym, ale także łatwe do zrozumienia. Jeśli uznasz tę definicję nanometru za pomocną, możesz odwołać się do niej, korzystając z linków cytowania powyżej.