Megabajt kontra megabit
Megabit i Megabajt to dwie jednostki używane do pomiaru ilości informacji w systemach komputerowych i systemach sieciowych.
Megabit
Bit to podstawowa miara informacji wykorzystywanych w technologii komputerowej i telekomunikacyjnej. Jest to skrót od cyfry binarnej. Bit może przyjąć tylko dwie wartości; tj. 1 i 0. Megabit jest wielokrotnością jednostki podstawowej, bit.
Mega to przedrostek wielokrotności miliona (x106) w międzynarodowym układzie jednostek. Dlatego megabit jest równy milionowi bitów. Megabit jest oznaczany za pomocą symboli Mbit lub Mb.
1 Megabit (Mb)=1000000 bitów=106 bitów=1000 kilobitów (kb)
Megabity są często używane w jednostkach mierzących szybkości transmisji danych w sieciach komputerowych. 100 Mb/s oznacza 100 megabitów na sekundę.
Megabajt
Byte, używany w technologii komputerowej i telekomunikacyjnej, to zbiór 8 bitów. Dlatego każdy bajt zawiera 8 bitów wewnątrz.
Jak wskazano wcześniej, Mega odnosi się do wielokrotności miliona, a zatem Megabajt oznacza milion bajtów. Ponieważ każdy bajt ma w środku 8 bitów. Jest to odpowiednik 8 milionów bitów lub 8 megabitów. Symbole MB i MByte są używane do oznaczenia megabajta
1 megabajt (MB)=1000000 bajtów=106 bajtów=8 megabitów=8× 106 bitów
Jaka jest różnica między megabajtem a megabitem?
• 1 megabajt to 8 megabitów.
• 1 megabit to 1/8 megabajta lub 125 kilobajtów.
• Megabajt używa MB jako symbolu, gdzie B jest wielkimi literami; Megabit używa Mb jako symbolu, gdzie b jest małymi literami.
• Jednostkami podstawowymi są bity i bajty, a Mega jest tylko prefiksem używanym do oznaczenia wielokrotności miliona przez International Standard Institution.