Раньше хороший handoff выглядел так: продакт написал задачу, объяснил ее на встрече, разработчик задал вопросы - и работа началась. В этой модели качество постановки частично компенсировалось живым общением.
Теперь в процессе появился третий участник. ИИ-агент не задает вопросы на созвоне. Он либо начинает работать - либо достраивает недостающее сам, на свой вкус. Это и есть главное изменение: у задачи теперь два читателя, и один из них не умеет уточнять.
Как выглядит новый процесс
Менеджер продукта получает на входе три вещи: бизнес-документацию (требования, UX-сценарии, метрики), технический контекст (API, ограничения, схемы данных) и постоянные правила проекта (термины, паттерны, стиль).
Из этого собирается артефакт задачи - документ с пятью опорами: предмет изменения, причина, границы, критерии приемки, контекст. К нему добавляется короткий блок для ИИ: что именно проверить, на что смотреть, чего не делать.
Дальше - selfcheck. Продакт прогоняет собранную задачу через инструмент: Cursor, Claude Code, или любой другой с контекстом проекта. Задача не читается на созвоне - она тестируется вживую. ИИ возвращает пробелы, граничные случаи, конфликты критериев - задача дорабатывается и прогоняется снова.
Когда все опоры закрыты, задача уходит в handoff. К этому моменту она уже прошла проверку - не в голове автора, а в реальном инструменте. Разработчик получает постановку, которую понимает с первого раза. ИИ-агент получает контекст, в котором может генерировать без догадок.
Что изменилось в роли продакта
Продакт перестал быть только автором задачи. Он стал ее первым тестировщиком.
Раньше «проверить задачу» означало перечитать ее самому и решить, что все понятно. Теперь - прогнать через инструмент и посмотреть, где он начинает додумывать. Это другое действие. Оно требует другого навыка.
Хороший продакт в этой модели умеет три вещи. Первое - собрать артефакт, который не разваливается при передаче. Второе - написать блок для ИИ так, чтобы задать режим работы, а не пересказать задачу. Третье - отличить полезный ответ инструмента от галлюцинации.
Инструмент при этом не заменяет суждение продакта. Он ускоряет обнаружение слабых мест - тех, которые раньше всплывали только в процессе разработки.
Почему это работает
ИИ-агент работает хорошо там, где у него есть точная рамка. Зрелая задача - это и есть такая рамка: предмет изменения зафиксирован, границы видны, критерии однозначны. В такой среде генерация становится предсказуемой.
Слабая задача дает другой результат. Агент заполняет пробелы - иногда удачно, чаще нет. Итог не зависит от постановки, потому что постановки в полном смысле нет. Продакт получает результат, который надо переделывать, и непонятно почему.
Разница между этими двумя ситуациями - не в качестве модели. Она в качестве входа.
На практике
Процесс выглядит просто. Получил документацию - добавил технический контекст - собрал артефакт - написал блок для ИИ - прогнал через инструмент - закрыл пробелы - передал.
На выходе: задача, которую разработчик понимает без объяснений, и контекст, в котором ИИ-агент работает без угадывания.
Это и есть новый стандарт handoff.
Самопроверка
- Я проверяю свои задачи через инструмент или только перечитываю их сам?
- Мой блок для ИИ задает режим работы или просто пересказывает задачу?
- Разработчик получает задачу, которую можно начать без объяснений?
- ИИ-агент получает контекст, в котором не нужно ничего додумывать?
Задача, которая выдерживает передачу без автора рядом, одинаково понятна разработчику и исполнима агентом - это и есть новый стандарт постановки, с которым начинается осмысленная работа в среде, где в исполнителе всегда два разработчика.