3.1. Бит - минимальная единица измерения информации
<<Назад
|
Содержание
| Далее>>
Разнообразие необходимо при передаче
информации. Нельзя нарисовать белым по белому, одного состояния
недостаточно. Если ячейка памяти способна находиться только в
одном (исходном) состоянии и не способна изменять свое
состояние под внешним воздействием, это значит, что она не
способна воспринимать и запоминать информацию. Информационная
емкость такой ячейки равна 0.
Минимальное разнообразие обеспечивается
наличием двух состояний. Если ячейка памяти способна, в
зависимости от внешнего воздействия, принимать одно из двух
состояний, которые условно обозначаются обычно как «0» и «1»,
она обладает минимальной информационной ёмкостью.
Информационная ёмкость одной ячейки
памяти, способной находиться в двух различных состояниях,
принята за единицу измерения количества информации - 1 бит.
1 бит (bit
- сокращение от англ. binary digit - двоичное
число) - единица измерения информационной емкости и
количества информации, а также и еще одной величины –
информационной энтропии, с которой мы познакомимся позже.
Бит, одна из самых безусловных единиц измерения. Если единицу
измерения длины можно было положить произвольной: локоть, фут,
метр, то единица измерения информации не могла быть по сути
никакой другой.
На физическом уровне бит является
ячейкой памяти, которая в каждый момент времени находится
в одном из двух состояний: «0» или «1».
Если каждая точка некоторого изображения
может быть только либо черной, либо белой, такое
изображение называют битовым, потому что каждая точка
представляет собой ячейку памяти емкостью 1 бит. Лампочка,
которая может либо «гореть», либо «не гореть»
также символизирует бит. Классический пример, иллюстрирующий 1
бит информации – количество информации, получаемое в результате
подбрасывания монеты – “орел” или “решка”.
Количество информации равное 1 биту можно
получить в ответе на вопрос типа «да»/ «нет». Если
изначально вариантов ответов было больше двух, количество
получаемой в конкретном ответе информации будет больше, чем 1
бит, если вариантов ответов меньше двух, т.е. один, то это не
вопрос, а утверждение, следовательно, получения информации не
требуется, раз неопределенности нет.
Информационная ёмкость ячейки памяти,
способной воспринимать информацию, не может быть меньше 1 бита,
но количество получаемой информации может быть и
меньше, чем 1 бит. Это происходит тогда, когда варианты
ответов «да» и «нет» не равновероятны. Неравновероятность
в свою очередь является следствием того, что некоторая
предварительная (априорная) информация по этому вопросу уже
имеется, полученная, допустим, на основании предыдущего
жизненного опыта. Таким образом, во всех рассуждениях
предыдущего абзаца следует учитывать одну очень важную оговорку:
они справедливы только для равновероятного случая.
Количество информации мы будем обозначать
символом I, вероятность
обозначается символом P. Напомним, что
суммарная вероятность полной группы событий равна 1.
<<Назад
|
Содержание
| Далее>>
|