Różnica między kodem binarnym a ASCII

Różnica między kodem binarnym a ASCII
Różnica między kodem binarnym a ASCII

Wideo: Różnica między kodem binarnym a ASCII

Wideo: Różnica między kodem binarnym a ASCII
Wideo: Mamo! Tato! Skąd się biorą REKINY? || Niepodręcznik Oceaniczny, odc. 83 2024, Lipiec
Anonim

Binarne a ASCII

Kod binarny to metoda używana w komputerach i urządzeniach cyfrowych do przedstawiania i przesyłania tekstu, symboli lub instrukcji procesora. Ponieważ komputery i urządzenia cyfrowe wykonują swoje podstawowe operacje w oparciu o dwie wartości napięcia (wysokie lub niskie), każdy bit danych zaangażowanych w proces musi zostać przekonwertowany do tej postaci. Idealną metodą wykonania tego zadania jest przedstawienie danych w systemie liczb binarnych, który zawiera tylko dwie cyfry, 1 i 0. Na przykład każde naciśnięcie klawisza na klawiaturze generuje ciąg jedynek i zer, który jest unikalny dla każdego znaku i wysyła go jako wynik. Proces konwersji danych na kod binarny nazywa się kodowaniem. Wiele metod kodowania jest stosowanych w informatyce i telekomunikacji.

ASCII, co oznacza American Standard Code for Information Interchange, to standardowe kodowanie znaków alfanumerycznych używane w komputerach i powiązanych urządzeniach. ASCII został wprowadzony przez Instytut Standardów Stanów Zjednoczonych Ameryki (USASI), obecnie znany jako Amerykański Narodowy Instytut Standardów.

Więcej o kodach binarnych

Najprostszym sposobem zakodowania danych jest przypisanie określonej wartości (najczęściej w liczbach dziesiętnych) do znaku, symbolu lub instrukcji, a następnie przekonwertowanie wartości (liczby dziesiętnej) na liczbę binarną, która składa się tylko z jedynek i zer. Sekwencja jedynek i zer nazywana jest ciągiem binarnym. Długość ciągu binarnego określa liczbę różnych znaków lub instrukcji, które można zakodować. Za pomocą tylko jednej cyfry można przedstawić tylko dwa różne znaki lub instrukcje. Za pomocą dwóch cyfr można przedstawić cztery znaki lub instrukcje. Ogólnie, za pomocą ciągu binarnego składającego się z n cyfr, można przedstawić 2 różne znaki, instrukcje lub stany.

Istnieje wiele metod kodowania z różnymi długościami ciągów binarnych, z których niektóre mają stałą długość, a inne zmienną. Kilka kodów binarnych ze stałymi ciągami bitów to ASCII, rozszerzony ASCII, UTF-2 i UTF-32. UTF-16 i UTF-8 to kody binarne o zmiennej długości. Zarówno kodowanie Huffmana, jak i Morse'a można również uznać za kody binarne o zmiennej długości.

Więcej o ASCII

ASCII to schemat kodowania znaków alfanumerycznych wprowadzony w latach 60-tych. Oryginalny ASCII używa 7-cyfrowego ciągu binarnego, co umożliwia reprezentację 128 znaków. Późniejsza wersja ASCII, zwana rozszerzonym ASCII, używa 8-cyfrowego ciągu binarnego, co umożliwia reprezentowanie 256 różnych znaków.

ASCII obejmuje przede wszystkim dwa typy znaków, które są znakami kontrolnymi (reprezentowanymi przez 0-31 decimal i 127decimal) i drukowalne znaki (reprezentowane przez 32-126 decimal). Na przykład, klawisz sterujący usuwanie otrzymuje wartość 127decimal, która jest reprezentowana przez 1111111. Znak a, który otrzymuje wartość 97decimal, jest reprezentowany przez 1100001. ASCII może reprezentować litery w obu przypadkach, cyfry, symbole i klawisze kontrolne.

Jaka jest różnica między kodem binarnym a ASCII?

• Kod binarny to ogólny termin określający metodę kodowania znaków lub instrukcji, ale ASCII jest tylko jedną z globalnie akceptowanych konwencji kodowania znaków i był najczęściej używanym schematem kodowania binarnego przez ponad trzy dekady.

• Kod binarny może mieć różne długości do kodowania w zależności od liczby znaków, instrukcji lub metody kodowania, ale ASCII używa tylko 7-cyfrowego ciągu binarnego i 8-cyfrowego dla rozszerzonego ASCII.

Zalecana: