Впервые объективный подход к измерению информации был предложен американским инженером Р. Хартли в 1928 году, затем в 1948 году обобщен американским учёным К. Шенноном. Хартли рассматривал процесс получения информации как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.
![]() |
Формула Хартли: I = log2N |
Шеннон предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
![]() |
Формула Шеннона: I=P1log21/P1+P2log21/P2+...+PNlog21/PN, где pi - вероятность i-го сообщения. |
Поскольку каждый регистр арифметического устройства и каждая ячейка памяти состоит из однородных элементов, а каждый элемент может находиться в одном из двух устойчивых состояний (которые можно отождествить с нулем и единицей), то К. Шенноном была введена единица измерения информации - бит.
![]() | Сообщение, уменьшающее информационную неопределенность ровно вдвое, содержит единицу информации - один бит . |
Широко используются также еще более крупные производные единицы информации:
В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:
За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.