You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
00:00 — Если промптишь как месяц назад — уже отстаёшь
Opus 4.6, Gemini 3.1 Pro, GPT 5.3 Codex — все выпущены за последние недели с автономными агентными возможностями. Эти модели работают автономно часами, днями, неделями без проверки.
Слово "промптинг" теперь скрывает 4 разных навыка, большинство практикует только один. Разрыв между теми кто видит все 4 слоя и теми кто практикует один — уже 10x и растёт.
→ Вывод: Всё что ты делал в чате (ловил ошибки, давал контекст, корректировал курс) — теперь должно быть закодировано ДО старта агента.
02:30 — Разрыв 10x: Та же модель, тот же вторник, разные навыки
Человек A (навыки 2025):
Пишет запрос → получает 80% готовый результат → 40 минут чистит → доволен
Человек B (навыки 2026):
Пишет структурированную спецификацию за 11 минут → отдаёт агенту → идёт за кофе → возвращается к готовому результату → делает 5 таких дек до обеда
Та же модель, тот же день — недельная работа за утро.
→ Вывод: Инвестировать время в написание спецификации ПЕРЕД запуском агента.
05:15 — Тоби Лютке о Context Engineering
CEO Shopify — технический лидер, глубоко изучает AI.
Его определение:"Способность сформулировать проблему с достаточным контекстом так, что без дополнительной информации задача становится решаемой"
Это НЕ про хитрые трюки промптов — это коммуникационная дисциплина.
Побочный эффект: Его emails стали чётче, memo — лучше, decision-making frameworks — сильнее.
Провокационный тезис: Много "политики" в компаниях — это просто плохой context engineering между людьми.
→ Вывод: Применять этот навык не только к AI, но и к коммуникации с людьми.
07:45 — Фреймворк четырёх дисциплин
Промптинг разделился на 4 различных дисциплины:
Prompt Craft — базовые навыки промптинга
Context Engineering — курирование токенов в контексте
Intent Engineering — кодирование целей и ценностей
Specification Engineering — документы для автономного исполнения
Они накапливаются — если пропустишь одну, создашь типичные enterprise-провалы.
09:30 — Дисциплина 1: Prompt Craft как базовый уровень
Это оригинальный навык — то чему учили последние 2 года. Синхронный, сессионный, индивидуальный.
Компоненты:
Чёткие инструкции
Релевантные примеры
Guardrails
Формат вывода
Разрешение конфликтов
Prompt craft НЕ устарел — он стал table stakes (базовым требованием).
Аналогия: Как умение печатать 10 пальцами — раньше конкурентное преимущество, теперь просто ожидается.
→ Вывод: Если не умеешь писать чёткий промпт в 2026 — ты как человек в 1998 который не умел отправить email.
12:00 — Дисциплина 2: Context Engineering
Определение:"Стратегии курирования и поддержания оптимального набора токенов во время LLM-задачи"
Harrison Chase (LangChain): "Всё есть context engineering — это описывает всё что мы делали не зная термина"
❌ "Update dashboard to show Q3 numbers"
✅ "Update sales dashboard at /analytics/sales:
- Add Q3 2026 revenue (from sales_db.quarterly_revenue where quarter='Q3' AND year=2026)
- Format: $X.XM with YoY comparison percentage
- Position: top-right card, same style as Q2 card
- Color: green if +YoY, red if -YoY"
Acceptance criteria (плохо → хорошо):
❌ "Build a login page"
✅ "Build a login page that:
1. Handles email+password with validation (email format, password 8+ chars)
2. Supports social OAuth via Google and GitHub
3. Shows 2FA input only after successful first factor
4. Persists session for 30 days with "remember me"
5. Rate limits to 5 failed attempts per 15 minutes per IP"
Constraint architecture:
MUSTS:
- Use existing auth service at /api/auth
- Follow design system components from @ui/components
MUST-NOTS:
- Never store passwords in plain text
- Never modify user table schema
PREFERENCES:
- Prefer server-side validation over client-only
- Prefer progressive disclosure for complex forms
ESCALATE:
- Any changes to security-critical code
- Performance regressions >100ms
4. Где живёт 10x gap между теми кто видит все 4 layers и теми кто практикует только один
Аспект
✅ 10x люди
❌ 1x люди
Видение
Prompting как 4-layer stack
Prompting = chat instructions
Инфраструктура
Context/intent/spec infrastructure готова
Каждый раз с нуля
Результат
Неделя работы за утро
"Сэкономил 50% времени"
Качество
100% готово, agent работает пока пьём кофе
80% готово, 40 минут cleanup
Документы
Agent-readable specifications
Документы "для людей"
Oversight
Encoded в spec до старта
Real-time corrections
Конкретный пример разрыва:
1x человек (2025 skills):
Утро понедельника:
09:00 - Открыл Claude, написал "create presentation about Q3 results"
09:05 - Получил черновик, начал править
09:45 - Закончил cleanup, презентация готова
→ Сэкономил ~1.5 часа, доволен
Итого за день: 3-4 презентации/документа
10x человек (2026 skills):
Утро понедельника:
09:00 - Загрузил context (claude.md + project specs)
09:05 - Написал structured specification (11 минут)
09:16 - Запустил агента, пошёл за кофе
09:25 - Вернулся к готовой презентации, проверил по acceptance criteria
09:30 - Запустил следующую задачу
Итого за день: 15-20 презентаций/документов
Разница: Не в том что один "умнее". А в том что один видит 4 layer stack, другой — только prompt craft.
Детальное саммари: "The Four Disciplines of Prompting in 2026"
🎯 Главная идея
Промптинг в 2026 году — это уже не одна навык, а четыре отдельные дисциплины. Большинство людей практикуют только одну из них, что создает 10x разрыв в эффективности между теми, кто понимает все четыре уровня, и теми, кто застрял на первом.
📍 Ключевые моменты (по таймкодам)
00:00 — Если ты промптишь как в прошлом месяце, ты уже опоздал
Что обсуждалось:
Opus 4.6, Gemini 3.1 Pro и GPT 5.3 Codex вышли в последние недели с возможностями автономных агентов
Модели теперь работают автономно часами и днями без проверки со стороны человека
Промптинг на основе чат-взаимодействия стал функционально устаревшим для серьезной работы
Слово "промптинг" теперь скрывает четыре совершенно разных набора навыков
Разрыв между теми, кто видит все четыре уровня, и теми, кто не видит, уже достиг 10x и продолжает расти
Вывод — что делать, чтобы быть лучшим:
Перестать думать о промптинге как о разговоре с чат-ботом
Понять, что AI теперь — это worker (работник), а не chat partner (партнер по чату)
Обновить свое понимание промптинга каждый месяц, следя за новыми моделями
Принять, что все что вы привыкли делать в режиме реального времени (исправление ошибок, добавление контекста, коррекция курса) теперь должно быть закодировано заранее, до того как агент начнет работу
02:30 — Разрыв в 10x: одна модель, один вторник, разные навыки
Что обсуждалось:
Конкретный пример двух людей в один и тот же вторник, с одной и той же моделью:
Человек А (навыки 2025):
Запрашивает PowerPoint презентацию
Получает результат на 80% правильный
Тратит 40 минут на исправление (форматирование, шрифты, стиль)
Экономит время — задача заняла бы 2-3 часа вручную
Это хороший результат для 2025
Человек Б (навыки 2026):
Пишет структурированную спецификацию за 11 минут
Передает ее автономному агенту
Идет пить кофе
Возвращается к готовой презентации, соответствующей всем критериям качества
Делает 5 таких презентаций до обеда
Выполняет недельную работу за утро
Разница: 10x производительность. Одна модель. Один вторник.
Вывод — что делать, чтобы быть лучшим:
Инвестировать время в написание полной спецификации до того, как дать задачу AI
Научиться тратить больше времени на промпт (11 минут vs 2 минуты), но получать результат который не требует исправлений
Думать о AI как о работнике, которому нужна полная спецификация, а не как о помощнике в реальном времени
Измерять эффективность не по времени одной итерации, а по количеству завершенных задач без доработок
05:15 — Toby Lütke о контекст-инжиниринге как дисциплине коммуникации
Что обсуждалось:
Toby Lütke (CEO Shopify) — технический CEO, который глубоко погружен в AI
У него есть папка промптов, которые он прогоняет через каждый новый релиз модели
Он использует термин "context engineering" (контекст-инжиниринг)
Определение Toby:
Фундаментальный навык — это способность сформулировать проблему с достаточным контекстом таким образом, что без какой-либо дополнительной информации задача становится решаемой.
Влияние на личную эффективность:
Toby отметил, что необходимость давать AI полный контекст улучшила его коммуникацию как CEO
Его emails стали более сжатыми
Его меморандумы стали лучше
Его фреймворки принятия решений стали сильнее
Провокационная гипотеза Toby:
Многое из того, что люди в больших компаниях называют "политикой", на самом деле является плохим контекст-инжинирингом для людей.
Объяснение:
Хороший контекст-инжиниринг выявляет разногласия по допущениям, которые никогда не формулируются явно
Эти невысказанные допущения проявляются как политика и обиды в больших компаниях
Это происходит потому, что люди склонны быть небрежными коммуникаторами, полагаясь на общий контекст, который на самом деле не существует
Вывод — что делать, чтобы быть лучшим:
Практиковать self-contained problem statements (самодостаточные формулировки проблем)
Перед тем как дать задачу AI или человеку, спросить себя: "Есть ли у получателя ВСЯ информация, необходимая для решения этой задачи?"
Выявлять скрытые допущения и делать их явными
Понять, что улучшение навыков промптинга для AI автоматически улучшает вашу коммуникацию между людьми
Рассматривать плохую коммуникацию в организации как техническую проблему (недостаток контекста), а не как политическую
07:45 — Фреймворк четырех дисциплин
Что обсуждалось:
Промптинг больше не единая навык. Это четыре отдельные дисциплины, каждая на разной высоте и временном горизонте:
1. Prompt Craft (Ремесло промптов)
Что: Синхронная, сессионная, индивидуальная навык
Когда: Сидишь в чат-окне, пишешь инструкцию, оцениваешь вывод, итерируешь
Статус в 2026: Table stakes (базовый уровень), как умение печатать 10 пальцами
2. Context Engineering (Контекст-инжиниринг)
Что: Курирование и поддержание оптимального набора токенов во время задачи LLM
Фокус: Вся информационная среда, в которой работает агент (system prompts, tool definitions, retrieved documents, message history, memory systems, MCP connections)
Статус в 2026: Где сейчас сфокусировано внимание индустрии
3. Intent Engineering (Инжиниринг намерений)
Что: Кодирование организационных целей, ценностей, иерархий компромиссов, границ принятия решений в инфраструктуру
Метафора: Context engineering говорит агентам что знать. Intent engineering говорит агентам чего хотеть
Статус в 2026: Критично для долгоживущих автономных агентов
Что: Написание документов, которые автономные агенты могут выполнять в течение продолжительного времени без вмешательства человека
Масштаб: Весь информационный корпус организации как agent-fungible (пригодный для агентов)
Статус в 2026: Только начинаем говорить об этом, но лучшие практики уже так делают
Ключевая идея:
Эти дисциплины накапливаются. Нельзя пропустить одну. Каждая следующая строится на предыдущей.
Вывод — что делать, чтобы быть лучшим:
Понять, что промптинг — это не одна навык, а стек из четырех
Начать систематически развивать каждую дисциплину
Не останавливаться на Prompt Craft, даже если вы в ней уже хороши
Понять, что провал на более высоком уровне имеет более серьезные последствия:
Плохой промпт — потерянное утро
Плохой context/intent engineering — проблемы для всей команды/организации
Плохой specification engineering — системные провалы на уровне компании
09:30 — Дисциплина 1: Prompt Craft как базовый уровень
Что обсуждалось:
Prompt Craft — это оригинальная навык:
Синхронная, сессионная, индивидуальная
Сидишь перед чат-окном, пишешь инструкцию, оцениваешь вывод, итерируешь
Ключевые элементы хорошего промпта:
Четкие инструкции
Релевантные примеры и контрпримеры
Подходящие guardrails (ограничения)
Явный формат вывода
Четкость в разрешении неопределенностей и конфликтов (чтобы модель не придумывала на лету)
Статус в 2026:
Это то, о чем пишут Anthropic, OpenAI, Google
Это в тысячах блог-постов и LinkedIn-курсов
Prompt Craft НЕ стал нерелевантным — он стал table stakes (базовым уровнем)
Аналогия:
Умение печатать 10 пальцами когда-то было профессиональным дифференциатором. Теперь это просто предполагается. Если вы не можете написать четкий, хорошо структурированный промпт в 2026, вы как человек в 1998, который не мог отправить email.
Почему Prompt Craft был всей игрой:
Когда AI-взаимодействия были синхронными и сессионными:
Ты всегда был рядом с компьютером
Ты видел вывод в реальном времени
Ты исправлял ошибки сразу
Ты давал дополнительный контекст, когда модель спрашивала или когда замечал отклонение от курса
Почему эта модель сломалась:
Долгоживущие агенты разбивают каждое допущение этой модели:
Агент работает часами без проверки
Вы не можете исправить ошибки в реальном времени
Вся коррекция курса должна быть встроена в спецификацию до начала работы агента
Вывод — что делать, чтобы быть лучшим:
Освоить базовые навыки Prompt Craft — это обязательно
Перечитать документацию по промптингу (Anthropic, OpenAI, Google)
Пройти интерактивные туториалы (например, на AI Cred)
Создать папку с задачами, которые вы делаете регулярно
Для каждой задачи написать лучший промпт и сохранить вывод как baseline
Пересматривать эти промпты со временем
Но не останавливаться на этом — понять, что это только первый уровень из четырех
12:00 — Дисциплина 2: Context Engineering
Что обсуждалось:
Определение:
Набор стратегий для курирования и поддержания оптимального набора токенов во время задачи LLM.
Основная идея:
Промпт, который вы пишете — может быть 200 токенов
Контекстное окно, в которое он попадает — может быть 1 миллион токенов
Ваши 200 токенов = 0.02% того, что видит модель
Остальные 99.98% — это context engineering
Что включает Context Engineering:
System prompts
Tool definitions
Retrieved documents
Message history
Memory systems
MCP connections
Артефакты Context Engineering:
claw.md файлы
Agent specifications
RAG pipeline design
Memory architectures
Определяет:
Понимает ли кодинг-агент конвенции вашего проекта
Имеет ли исследовательский агент доступ к правильным документам
Может ли агент клиентского сервиса извлечь релевантную историю аккаунта
Ключевая проблема (из команды Anthropic):
LLM деградируют по мере того, как вы даете им больше информации.
Решение:
Включать только релевантные токены
Проблема не в том, что модели не могут держать токены
Проблема в том, что качество извлечения падает по мере роста контекста
Практическое следствие:
Люди, которые в 10x эффективнее с AI чем их коллеги, пишут НЕ 10x лучшие промпты. Они строят 10x лучшую контекстную инфраструктуру.
Их агенты начинают каждую сессию с:
Правильными файлами проекта
Правильными конвенциями
Правильными ограничениями, уже загруженными
Результат:
Сам промпт может быть относительно простым, потому что контекст делает тяжелую работу.
Вывод — что делать, чтобы быть лучшим:
Построить личный контекстный слой
Написать эквивалент claw.md для своей работы (даже если не используете Claude):
Ваши цели
Ваши ограничения
Ваши коммуникационные предпочтения
Ваши стандарты качества
Институциональный контекст, который новому члену команды потребовалось бы 6 месяцев чтобы впитать
Начинать AI-сессии с загрузки этого контекста
Разница в качестве вывода должна быть немедленной и очевидной
Понять, что контекст важнее самого промпта
15:20 — Дисциплина 3: Intent Engineering
Что обсуждалось:
Определение:
Практика кодирования организационных целей, ценностей, иерархий компромиссов, границ принятия решений в инфраструктуру, против которой могут действовать агенты.
Разница от Context Engineering:
Context engineering говорит агентам что знать
Intent engineering говорит агентам чего хотеть
Метафора:
Intent engineering находится над context engineering так же, как стратегия находится над тактикой.
Возможные сценарии:
✅ Можно иметь идеальный контекст и ужасное выравнивание намерений
❌ Нельзя иметь хорошее выравнивание намерений без хорошего контекста (потому что агенту нужна информация для действия согласно намерениям)
Proof case — история Klarna:
AI-агент Klarna обработал 2.3 миллиона разговоров с клиентами в первый месяц
Агент оптимизировался на неправильную вещь
Он сократил время разрешения, но НЕ оптимизировал удовлетворенность клиентов
Результат: Klarna попала в серьезные проблемы
Пришлось заново нанять множество человеческих агентов
До сих пор имеют дело с последствиями доверия клиентов
Почему это произошло:
Плохой Intent Engineering — не было четко определено, что агент должен оптимизировать удовлетворенность клиентов, а не только скорость.
Context Engineering провал: Проблемы для команды/отдела
Intent Engineering провал: Проблемы для всей компании, репутационный урон, финансовые потери
Вывод — что делать, чтобы быть лучшим:
Четко определить что именно должен оптимизировать агент
Не предполагать, что "здравый смысл" очевиден для AI
Кодировать фреймворки принятия решений вашей команды/организации
Для каждой категории работы определить:
Что "достаточно хорошо"
Что эскалируется AI vs что AI может решить автономно
Записать это, структурировать, сделать доступным для агентов
На организационном уровне: создать роли/команды, ответственные за Intent Engineering
Понять разницу между тактикой (context) и стратегией (intent)
17:45 — Дисциплина 4: Specification Engineering
Что обсуждалось:
Определение:
Практика написания документов по всей вашей организации, которые автономные агенты могут выполнять в течение продолжительных временных горизонтов без вмешательства человека.
Масштаб:
Это уровень выше всего остального
Первые три уровня фокусировались на том, как вы готовите работу напрямую для агента
Specification Engineering — это мышление о всем информационном корпусе вашей организации как agent-fungible, agent-readable
Ключевая идея:
Все, что вы пишете, должно быть чем-то, что агент может прочитать и что-то с этим сделать.
Характеристики спецификаций:
Полные (complete)
Структурированные (structured)
Внутренне согласованные (internally consistent)
Описывают, каким должен быть вывод для данной задачи
Определяют, как измеряется качество
Спецификации — это образ мышления:
Вы приносите его к своим документам, что позволяет применять агентов к большим участкам текущего контекста компании с уверенностью, что то, что агент читает, будет релевантным.
Пример из Anthropic (Opus 4.5):
Команда пыталась построить production-quality web app, но:
Если дать агенту только high-level промпт типа "build a clone of claw.ai"
Агент пытается сделать слишком много сразу
Заканчивается контекст mid-implementation
Следующая сессия гадает, что произошло
Решение — НЕ лучшая модель, а Specification Engineering:
Паттерн, где:
Начальный laser agent настраивает окружение
Progress log документирует что сделано
Coding agent делает инкрементальный прогресс против структурированного плана каждую сессию
Спецификация стала scaffolding (леса), который позволил множественным агентам производить согласованный вывод в течение дней.
Сдвиг от промпта к спецификации:
Это зеркало перехода, который произошел в человеческом инжиниринге десятилетия назад:
Когда строишь что-то маленькое → вербальные инструкции работают
Когда строишь что-то большое, требующее команду или множественные сессии → нужны blueprints (чертежи)
Фрактальная природа Specification Engineering:
Уровень организации:
Корпоративная стратегия — это спецификация
Продуктовая стратегия — это спецификация
OKRs — это спецификация
Все становится спецификацией, которую может использовать ваш агент
Уровень индивидуального агента:
Какой лог у агента?
Как мы назначаем задачи в этом агентском билде?
Как мы обеспечиваем, что у агента есть четко определенный список требований?
Взаимодействие с другими дисциплинами:
Хорошая spec → чище контекстное окно
Хороший task log → меньше конфликтов Intent Engineering
Меньше раздувания плохим контекстом
Все дисциплины начинают взаимодействовать
Наивысший уровень:
Думать о спецификации как о том, как ваша организация ведет бизнес. Вы специфицируете желаемые выводы. Агент делает работу. Выводы производятся.
Это наивысший уровень описания того, как будет выглядеть бизнес в следующие пару лет.
Вывод — что делать, чтобы быть лучшим:
Начать думать о каждом документе в организации как о спецификации для агента
Практиковать написание спецификаций для реальных проектов
Для одночеловеческого бизнеса: конвертировать Notion в agent-readable формат
Для больших компаний: начать программу конвертации SharePoint/документов в agent-readable спецификации
Понять, что ваша org — это система бизнес-процессов, и эти процессы должны быть agent-readable и specifiable
Создать роли/команды, ответственные за Specification Engineering на уровне организации
Понять, что качественная спецификация определяет потолок качества всей работы агента
22:30 — Почему долгоживущие агенты разбивают синхронные допущения
Что обсуждалось:
Старая ментальная модель (2025):
Промптинг = "хорошие инструкции для AI"
Почему эта модель проваливается:
Она предполагает синхронное взаимодействие:
Вы всегда за компьютером
Вы видите вывод в реальном времени
Вы исправляете ошибки сразу
Вы даете дополнительный контекст, когда модель спрашивает
Вы замечаете отклонение от курса и корректируете
Что изменилось:
Долгоживущие агенты разбивают каждое допущение этой модели:
Агенты работают часами/днями без проверки
Вы не можете видеть вывод в реальном времени
Вы не можете корректировать курс на лету
Структурная уязвимость:
Если вы полагались на допущения синхронного промптинга, у вас есть структурная уязвимость в том, как вы думаете об AI.
Новое требование:
Вы должны думать об AI так, будто ваш надзор в реальном времени встроен в спецификацию до того, как агент начинает работать.
Архитектура Planner-Worker:
Доминирует в production agent deployments:
Способная модель планирует работу:
Декомпозирует в подзадачи
Определяет критерии приемки
Назначает работу моделям
Более дешевые, быстрые модели делают работу
Ключевое правило:
Фаза планирования (= фаза спецификации) определяет потолок качества.
Последствие:
Выполнение без этапа спецификации производит сломанную работу и требует обширных человеческих доработок, чтобы иметь вообще какую-то ценность.
Сдвиг в узком месте навыков:
Real-time промптинг награждает:
Вербальную беглость
Быструю итерацию
Хороший глаз на качество вывода
Specification engineering награждает:
Полноту мышления
Предвосхищение edge cases (граничных случаев)
Четкую артикуляцию критериев приемки
Способность декомпозировать сложные результаты в независимо выполняемые компоненты
Важное замечание:
Разные люди хороши в этих вещах по-разному. Некоторые люди:
Естественно исключительны в синхронном промптинге, но будут бороться со specification работой
Посредственны в чат-взаимодействии, но могут быть отличными spec engineers
Вывод — что делать, чтобы быть лучшим:
Не толерировать свою естественную склонность как потолок
Рассматривать specification engineering как обучаемую навык
Осознанно развивать способность к:
Полноте мышления
Предвосхищению edge cases
Артикуляции критериев приемки
Декомпозиции сложных задач
Понять, что ваша ценность как работника смещается от способности быстро итерировать к способности думать полно и структурированно
25:00 — Пять примитивов Specification Engineering
Что обсуждалось:
Specification Engineering можно разбить на 5 обучаемых примитивов:
Примитив 1: Self-Contained Problem Statements (Самодостаточные формулировки проблем)
Определение (от Toby):
Можете ли вы сформулировать проблему с достаточным контекстом, чтобы задача была правдоподобно решаемой без того, чтобы агент шел за дополнительной информацией?
Дисциплина самодостаточности:
Заставляет вас быть четким
Выявляет скрытые допущения
Заставляет артикулировать ограничения, которые вы обычно оставляете неявными (потому что доверяете человеку на другом конце заполнить пробелы)
Проблема с AI:
AI не заполняет пробелы надежно. Он заполняет их статистической правдоподобностью = он угадывает способами, которые часто тонко неправильны.
Упражнение для тренировки:
Возьмите запрос, который вы обычно делаете разговорно: "Update the dashboard to show Q3 numbers"
Перепишите его, как будто получатель:
Никогда не видел ваш dashboard
Не знает, что означает Q3 в контексте вашей организации
Не знает, какую базу данных запрашивать
Не имеет доступа к информации кроме той, что вы включили
Это уровень самодостаточности, к которому вы должны стремиться.
Проблема:
Если вы не можете описать, как выглядит "done", агент не может знать, когда остановиться.
Точнее:
Агент остановится в точке, где его внутренние эвристики говорят, что задача завершена, что может не иметь никакого отношения к тому, что вам нужно.
Почему "80% проблема" — это большая проблема:
Спецификация говорила "build a login page", когда должна была говорить:
Build a login page that handles:
Email & passwords
Social OAuth via Google and GitHub
Progressive disclosure of 2FA
Session persistence for 30 days
Rate limiting after 5 failed attempts
Упражнение для тренировки:
Для каждой задачи, которую вы делегируете, напишите три предложения, которые независимый наблюдатель мог бы использовать для верификации вывода без вопросов к вам вообще.
Если вы не можете написать эти предложения:
Вы вероятно не понимаете задачу достаточно хорошо, чтобы дать ее агенту.
Личный опыт автора:
У меня было такое, когда я в разговоре с AI-агентом осознал, что я не знаю достаточно, чтобы делегировать задачу, и мне нужно вернуться позже. Это нормально. Хорошо осознать это до того, как вы назначите работу.
Preferences — Что агент должен предпочитать, когда существует несколько валидных подходов
Escalation triggers — Что агент должен эскалировать вместо автономного решения
Эти четыре категории формируют constraint architecture, которая превращает свободную спецификацию в очень надежную.
Паттерн claw.md:
Практическая реализация constraint architecture в кодинговом сообществе.
Лучшие claw.md файлы:
НЕ длинные списки правил
Сжатые, чрезвычайно высокосигнальные документы ограничений
Примеры:
Use these build commands
Follow these code conventions
Run these tests before marking a task complete
Never modify these files without explicit instructions
Консенсус сообщества:
Каждая строка в claw.md должна зарабатывать свое место. Если вы спрашиваете "приведет ли удаление этой строки к ошибкам AI?" и ответ "нет, не приведет" — убейте строку.
Упражнение для тренировки:
Перед делегированием задачи напишите вниз, что умный, благонамеренный человек мог бы сделать, что технически удовлетворило бы запрос, но произвело бы неправильный результат.
Эти failure modes становятся вашей constraint architecture. Закодируйте их.
Примитив 4: Decomposition (Декомпозиция)
Принцип:
Большие задачи нужно разбивать на компоненты, которые могут быть:
Выполнены независимо
Протестированы независимо
Интегрированы предсказуемо
Это старейший урок software engineering:
Модульность — но применяется к делегированию задач AI.
Пример из Anthropic (долгоживущий agent harness):
Разбивает каждый сложный проект на:
Аналогичная декомпозиция в не-кодинге:
Marketing content audit требует той же декомпозиции:
Quality scoring
Gap analysis
Recommendation generation
И т.д.
Упражнение для тренировки:
Возьмите любой проект, который вы оцениваете в несколько дней работы, и декомпозируйте в подзадачи, которые:
Каждая занимает менее 2 часов
Имеют четкие input-output границы
Могут быть верифицированы независимо от других задач
Это гранулярность, на которой агенты работают лучше всего.
Важное уточнение для 2026:
Вы НЕ должны пре-специфицировать все эти 2-часовые задачи при написании промпта.
Но вы должны:
Понимать, какие все эти задачи
Понимать, как описать для planner agent, как выглядит "done"
Понимать, как выглядят декомпозируемые части
Ваша работа в 2026:
НЕ вручную писать подзадачи для агента.
Ваша работа:
Предоставить break patterns (паттерны разбиения), которые planner agent может использовать для разбиения большой работы в надежном, выполняемом виде.
Это уровень абстракции даже выше декомпозиции.
Примитив 5: Evaluation Design (Дизайн оценки)
Критичность:
Не только на индивидуальном уровне
На уровне организации
Организации должны думать о каждом уровне AI deployment в терминах eval
Главный вопрос:
Как вы знаете, что вывод хороший?
НЕ:
"Does it look reasonable?" (так оценивает вывод AI большинство людей)
А:
Можете ли вы доказать измеримо, последовательно, что это хорошо?
Метафора:
Prompt craft — это искусство input
Evaluation design — это искусство знания, сработал ли этот input
Критичность в мире долгоживущих агентов:
Eval design — это единственная вещь, стоящая между:
❌ AI-генерированным выводом, который я не могу использовать
✅ AI-генерированным выводом, который мы можем использовать as-is
Упражнение для тренировки:
Для каждой повторяющейся AI-задачи в вашем мире:
Постройте eval
Постройте 3-5 тест-кейсов с известными хорошими выводами
Запускайте их периодически, особенно после обновлений модели
Что это дает:
Ловит регрессии
Строит вашу интуицию для того, где модели проваливаются
Создает институциональное знание о том, как выглядит "хорошо" для ваших конкретных use cases, вашей команды, вас, вашей организации
Вывод:
Нужно делать это систематически.
30:15 — Самодостаточные формулировки проблем и критерии приемки
Что обсуждалось:
(Детально покрыто в разделе "Пять примитивов" выше)
Дополнительный акцент:
Self-Contained Problem Statements:
Это не просто "предоставить контекст". Это дисциплина полноты.
Вопрос для самопроверки:
Если бы этот запрос попал к человеку, который никогда не работал в моей компании, не знает наших инструментов, процессов, жаргона — мог бы он выполнить задачу с только этой информацией?
Acceptance Criteria:
Не просто "список требований". Это верифицируемые утверждения о том, что означает завершение.
Тест:
Независимый наблюдатель с нулевым контекстом должен быть способен взять ваши критерии приемки и сказать "да" или "нет" — задача выполнена?
Организационная "политика" часто = плохой контекст-инжиниринг
История 2: Чем отличаются подход 2025 года и 2026 года
🔄 Фундаментальное изменение парадигмы:
2025: Модель чат-партнера
AI как собеседник в реальном времени
Синхронное взаимодействие
Человек как активный участник на каждом шаге
2026: Модель автономного работника
AI как работник, выполняющий долгоживущие задачи
Асинхронное делегирование
Человек предоставляет полную спецификацию заранее
⚠️ Что инженеры делают не так (ошибки 2025 подхода):
Ошибка 1: Полагаться на real-time коррекцию
2025 подход:
Отправить промпт
Посмотреть результат
Заметить ошибки
Исправить в следующем сообщении
Итерировать в реальном времени
Почему это не работает в 2026:
Агенты работают часами/днями без проверки
Вы не можете "поймать ошибку в реальном времени"
К моменту, когда вы видите результат, агент уже потратил часы на неправильное направление
Правильный подход:
Вся коррекция курса должна быть встроена в спецификацию до начала работы.
Ошибка 2: Недостаточная инвестиция в промпт
2025 подход:
2 минуты на промпт
40 минут на исправление результата
Считать это "экономией времени" (было бы 3 часа вручную)
2026 подход:
11 минут на написание полной спецификации
0 минут на исправление
5x задач выполнено до обеда
Почему это ошибка:
Экономия времени на спецификации = ложная экономия.
Вы экономите 9 минут на промпте
Теряете 40 минут на исправлениях
Получаете 1 задачу вместо 5
Математика:
2025: 2 мин промпт + 40 мин исправления = 42 мин на задачу, 1 задача
2026: 11 мин spec + 0 мин исправлений = 11 мин на задачу, 5 задач за то же время
10x разрыв в throughput.
Ошибка 3: Путать промпт с контекстом
2025 подход:
Фокус на том, ЧТО написать в чат-окне
Промпт = вся игра
Игнорирование 99.98% того, что видит модель (контекст)
Реальность 2026:
Ваш промпт: 200 токенов (0.02%)
Контекстное окно: 1M токенов (99.98%)
Контекст важнее промпта
Последствие:
Люди, которые в 10x эффективнее, НЕ пишут 10x лучшие промпты.
Они строят 10x лучшую контекстную инфраструктуру.
Что это значит:
Личный claw.md с целями, ограничениями, стандартами
Project-specific контекст
Memory systems
RAG pipelines
Tool definitions
Ошибка 4: Не определять acceptance criteria
2025 подход:
"Build a login page"
Получить что-то "80% правильное"
Потратить время на доработку до 100%
2026 подход:
Build a login page that handles:
Email & passwords
Social OAuth via Google and GitHub
Progressive disclosure of 2FA
Session persistence for 30 days
Rate limiting after 5 failed attempts
Почему это критично:
Без acceptance criteria агент останавливается, когда его эвристики говорят "done".
Это может не иметь никакого отношения к тому, что вам нужно.
Ошибка 5: Игнорировать constraint architecture
2025 подход:
Дать задачу
Надеяться, что "здравый смысл" сработает
Удивляться, когда агент делает что-то технически правильное, но неправильное в контексте
2026 подход:
Определить четыре типа ограничений:
Musts: Что должно быть сделано
Must-nots: Что запрещено
Preferences: Что предпочтительно при выборе
Escalations: Что требует человеческого решения
Пример:
Без constraint architecture: "Optimize this code"
→ Агент может переписать все в новую парадигму (технически правильно, контекстуально катастрофично)
С constraint architecture:
Must: Maintain current API interface
Must-not: Change database schema
Preference: Prefer readability over micro-optimizations
Escalate: Breaking changes that would require API versioning
Ошибка 6: Не декомпозировать большие задачи
2025 подход:
"Build a complete web app"
Агент пытается сделать все сразу
Заканчивается контекст mid-implementation
Следующая сессия не знает, что было сделано
2026 подход:
Decomposition в модули < 2 часов:
Environment setup
Database schema
API routes (по одной)
Frontend components (по одному)
Integration
Testing
Каждый модуль:
Независимо выполняем
Независимо верифицируем
Имеет четкие input-output границы
Ошибка 7: Отсутствие eval design
2025 подход:
Субъективная оценка: "Выглядит неплохо"
Нет систематического тестирования
Не ловить регрессии при model updates
2026 подход:
Для каждой повторяющейся AI-задачи: построить eval
3-5 тест-кейсов с известными хорошими выводами
Запуск периодически, особенно после updates
Измеримые, последовательные метрики качества
Почему это критично:
Единственная вещь между "AI-вывод, который я не могу использовать" и "AI-вывод, который можно использовать as-is".
🎯 Ключевая ошибка 2025 подхода (суммарно):
Фундаментальное заблуждение:
"Промптинг — это навык хорошего разговора с AI в реальном времени."
Почему это не работает:
Это предполагает синхронное взаимодействие:
✅ Вы всегда рядом
✅ Вы видите вывод в реальном времени
✅ Вы можете корректировать курс
Реальность 2026:
Агенты работают асинхронно, часами/днями без проверки.
Все допущения синхронности разбиваются:
❌ Вы не рядом
❌ Вы не видите вывод до завершения
❌ Вы не можете корректировать курс
Структурная уязвимость:
Если вы полагались на допущения синхронного промптинга, у вас есть структурная уязвимость в том, как вы думаете об AI.
✅ Правильный подход 2026:
Новое мышление:
"Промптинг — это инжиниринг полных спецификаций для автономных работников."
Что это означает:
Вся информация заранее (self-contained problem statements)
"Если вы промптите как в прошлом месяце, вы уже опоздали"
Модели обновляются каждый месяц
Best practices эволюционируют быстро
Отставание даже на несколько месяцев = серьезный конкурентный недостаток
📌 Финальная мысль
Спецификация, сделанная правильно, оказывается просто тем, как всегда выглядело ясное мышление — сделанное явным, потому что машины не позволяют нам быть небрежными в этом.
Это не просто о том, как использовать AI. Это о том, как думать, коммуникировать и организовывать работу в мире, где ясность и полнота стали технической необходимостью, а не просто добродетелью.
Автор видео: Nate
Длительность: 41:11
Ключевые слова: prompt engineering, specification engineering, context engineering, intent engineering, AI agents 2026, autonomous agents, Toby Lütke, Claude Opus 4.6, GPT 5.3, Gemini 3.1 Pro