Съдържание:
Определение - Какво означава Gigabit (Gb)?
Gigabit (Gb) е единица за измерване на данни, прилагана към цифрови скорости на трансфер на данни (DTR) и скорости на изтегляне. Един Gb се равнява на един милиард (1, 000, 000, 000 или 10 9 ) бита.
Международната система от единици (SI) определя префикса на гига като 10 9 умножител за съхранение на данни или един милиард (1 000 000 000) бита. Префиксът на двоичния гига представлява 1, 073, 741, 824 (1024 3 или 2 30 ) бита. SI и бинарната разлика е приблизително 4, 86 процента.
Techopedia обяснява Gigabit (Gb)
Централните процесори (CPU) са изградени с инструкции за контрол на данни за битове - най-малката единица за измерване на данни. Битовете са намагнетизирани и поляризирани двоични цифри, които представляват съхранени цифрови данни в памет с произволен достъп (RAM) или памет само за четене (ROM). Малко се измерва за секунди и се характеризира със стойности на високо напрежение 0 (включено) или 1 (изключено).
Повечето мрежи прилагат SI версията на Gb, когато измерват скоростите на модем, FireWire или Universal Serial Bus (USB), докато бинарната версия на Gb рядко се отнася до DTR скорост и измерва RAM и оптичен кабел. Софтуерните групи и системите за подаване често комбинират двоични и SI Gb единици според изискванията.
През 2000 г. Институтът на инженерите по електротехника и електроника (IEEE) включи официалното одобрение на Метрични префикси на Международната електротехническа комисия (IEC) (например MB като един милион байта и KB като хиляда байта). Ново добавените метрични термини включват:
- Кибибайтът (KiB) е 1024 байта.
- Мебибайт (MiB) е 1, 048, 576 байта.
- Gibibyte (GiB) е 1, 073, 741, 824 байта.
