1.4. ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ

 

В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bitbinary digit — двоичная цифра).

 

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений   (типа "орел"—"решка", "чет"—"нечет" и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

 

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица —  байт,  равная  восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные единицы информации:

·         1 Килобайт (Кбайт) = 1024 байт = 210 байт,

·         1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

·         1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

 

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление следующие единицы:

·         1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

·         1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.