от них одинаковое, т.е.
I = n1H1 = n2H2,
где
n1 и n2 - длина сообщения от первого и второго источников
Чем больше энтропия, тем большее количество информации содержит в среднем каждый элемент сообщения