Командные процессы
Здорово иметь на уровне команды определённые базовые процессы и правила работы с ИИ-агентами. По мере роста опыта у каждого появятся какие-то свои фишки и паттерны, но лучшие практики всё равно желательно выносить на уровень команды или даже всей компании. В этом разделе мы даём некоторый стартовый фреймворк, с которого можно начать.
Что ещё можно посмотреть по теме - OpenSpec. Это такой популярный подход к организации воркфлоу работы с ИИ-агентами. Но начинать точно рекомендую с чего-то легковесного.
Работа над задачами
В начале сессии оценивайте сложность задачи и выбирайте нужный путь:
- Простая задача - пишем промпт в любом формате
- Сложная задача - описываем задачу по командному шаблону
- Большое изменение - используем Plan Mode или плагин типа planning-with-files
- Автономная задача - Ralph Loop, Getting Shit Done, etc. (с осторожностью)
- Повторяющаяся задача - используем/создаём скилл или субагента, коммитим в репу
Пример процесса для сложной задачи
Каждая задача для ИИ-агента должна быть сконвертирована в описание по шаблону, например:
- Цель - что именно должно получиться на выходе
- Важный контекст - какая часть проекта, скорее всего, будет затронута, где взять нужные данные, что точно делать не надо (ограничение скоупа), зачем мы это делаем. Это значительно ускорит процесс работы над задачей
- Что нельзя менять - описываем, какие части системы нельзя менять в ходе работы над задачей. Например, нельзя менять контракт API, схему БД, зависимости, бизнес-логику и так далее
- Ограничения и правила - какие-то дополнительные штуки, не описанные в CLAUDE.md. Например, если мы хотим использовать конкретную библиотеку, обязательно переиспользовать какой-то код или просим агента при каждом затупе обращаться к нам за уточнением
- Верификация результата - какие тесты надо запустить, какие добавить, какие сценарии проверить. Чем детальнее, тем лучше
- Артефакт - какой формат должен быть. Например, маркдаун с анализом, коммит, отчёт по тестированию
Потом просим агента прочитать описание и задать уточняющие вопросы. Просим обновить описание задачи и создать TODO-лист, сохранить в отдельный файл, трекать там прогресс.
Процесс после завершения задачи
- Запускаем
/simplify— чистим грязный и мёртвый код - Просим код-ревью через субагента. Просим исправить найденные косяки или вместе с агентом проходимся по ним
- Просим проверить и по необходимости обновить всю документацию (можно создать скилл для этого)
- Анализируем сессию на предмет необходимости изменения
CLAUDE.md, добавления MCP или скиллов в репозиторий. Можно заюзать cc-sessions для анализа сессий - Проводим ручную верификацию результатов согласно правилам команды (докер собирается, тесты проходят, метрики правильные и так далее)
- Руками описываем пулл-реквест
Важно: Всё, что можно протестировать автоматически, должно быть протестировано автоматически самим агентом ещё на этапе имплементации! Человеческое ревью должно быть сконцентрировано на бизнес-логике, архитектуре, UX, ML-решениях.
Что необходимо сделать перед началом внедрения ИИ-агентов
На старте нужно оценить готовность ваших репозиториев и команды к работе с ИИ-агентами.
Есть прикольный фреймворк Agent Readiness, по нему можно оценить готовность по восьми критериям:
- Style & Validation - настроены ли прекоммит-хуки - линтеры, стайлеры
- Build System - есть ли задокументированные способы запустить и протестировать проекты?
- Testing - есть ли у агента возможность быстро верифицировать результаты своей работы?
- Documentation - есть ли в репозитории вся нужная документация? Есть ли какие-то неявные знания, не описанные на бумаге?
- Dev Environment - настроен ли у каждого энв, в котором агент может запускать скрипты, команды?
- Code Quality - удобен ли проект для ИИ-агента? Все файлы меньше 500 строк, функции меньше 50 строк, чёткие границы между модулями
- Observability - наличие и доступ до логов, трейсов, трейсбеков (Sentry, ELK, логи кубика)
- Security & Governance - настроено ли всё так, чтоб агент не мог уронить прод-кластер, удалить данные, ликнуть пароли?
Ещё можно добавить Data - есть ли у агента удобный доступ до данных, необходимых для работы.
Примеры описания уровней зрелости
- Первый - есть ридми, линтер, юнит-тесты
- Второй - есть общий CLAUDE.md, прекоммит-хуки, базовые правила безопасности
- Третий - есть удобные E2E-тесты, детальная документация для агента
- Четвёртый - оптимизированные билды, быстрые способы верификации работы
- Пятый - декомпозиция задач, авто-восстановление сервисов
Командный плейбук
Поддерживаем в команде документ с обязательными и рекомендуемыми практиками.
Его содержание:
- Описание процесса работы над задачей, обязательные и рекомендуемые правила
- Правила проверки результата и код-ревью
- Примеры хороших кейсов
- Повторяющиеся процессы
Полезные практики
- Парный вайб-кодинг — более опытный и менее опытный (в использовании ИИ-агентов) участники вместе решают какую-то задачу
Следующая: Метрики внедрения