Все материалы

Chain-of-thought: как заставить AI думать пошагово

Разбираемся, что такое Chain-of-thought промптинг, почему фраза "думай пошагово" улучшает ответы и когда этот метод работает, а когда мешает.

Aravana··7 мин

Тип материала: research

Поделиться:TelegramXLinkedIn
Как вам материал?

Что такое Chain-of-thought и почему это важно

Chain-of-thought (CoT) — это техника промптинга, при которой вы просите модель показать свой процесс рассуждения, а не только финальный ответ. Вместо того чтобы сразу давать результат, модель «проговаривает» шаги, которые приводят к ответу.

Это не просто вопрос прозрачности. Исследования показали, что когда модель вынуждена рассуждать пошагово, она действительно приходит к более точным ответам. Особенно на задачах, требующих логики, математики и многоэтапного анализа.

В 2022 году исследователи из Google Brain опубликовали работу, показавшую, что простое добавление фразы «Let's think step by step» к промпту увеличивает точность ответов GPT-3 на математических задачах с 17.7% до 78.7%. Это одно из самых значительных улучшений, достигнутых без изменения самой модели — только за счёт изменения промпта.

Почему «думай пошагово» работает

Языковая модель генерирует ответ токен за токеном, слева направо. Каждый следующий токен зависит от всех предыдущих. Когда модель сразу пытается дать финальный ответ, она, условно говоря, должна «уместить» всю цепочку рассуждений в один шаг. Это приводит к ошибкам, особенно на многоэтапных задачах.

Когда модель рассуждает пошагово, каждый промежуточный шаг становится частью контекста для следующего шага. По сути, модель использует свой собственный вывод как «рабочую память». Это позволяет ей решать задачи, которые требуют нескольких последовательных вычислений или логических переходов.

Аналогия из реальной жизни: попробуйте умножить 47 на 83 в уме. Скорее всего, вы будете делать это по частям: 47 на 80, потом 47 на 3, потом складывать. CoT заставляет модель делать то же самое — разбивать сложную задачу на управляемые шаги.

Zero-shot CoT: магическая фраза

Zero-shot CoT — это самый простой вариант. Вы не показываете модели примеры рассуждений, а просто добавляете к промпту инструкцию рассуждать пошагово.

Без CoT:
В магазине было 45 яблок. Утром продали 1/3, днём привезли ещё 20, а вечером продали половину того, что осталось. Сколько яблок осталось в магазине?

Ответ модели: 25 (неправильно)

С CoT:
В магазине было 45 яблок. Утром продали 1/3, днём привезли ещё 20, а вечером продали половину того, что осталось. Сколько яблок осталось в магазине? Давай решим пошагово.

Ответ модели:
Шаг 1: Было 45 яблок
Шаг 2: Утром продали 1/3: 45 / 3 = 15 продали, осталось 45 - 15 = 30
Шаг 3: Днём привезли 20: 30 + 20 = 50
Шаг 4: Вечером продали половину: 50 / 2 = 25
Ответ: 25 яблок (правильно)

Фразы, которые запускают CoT: «давай разберёмся пошагово», «think step by step», «покажи ход рассуждений», «объясни свою логику на каждом шаге», «реши поэтапно».

Few-shot CoT: учим на примерах

Few-shot CoT — более мощный вариант. Вы не просто просите модель рассуждать, а показываете пример того, КАК рассуждать. Это особенно полезно для нестандартных задач, где модель может не знать правильный формат рассуждения.

Задача: В компании 120 сотрудников. Из них 40% работают в отделе продаж, 25% — в разработке, а остальные — в поддержке и администрации поровну. Сколько человек в администрации?

Решение:
Шаг 1: Отдел продаж = 120 × 0.4 = 48 человек
Шаг 2: Разработка = 120 × 0.25 = 30 человек
Шаг 3: Остальные = 120 - 48 - 30 = 42 человека
Шаг 4: Поддержка и администрация поровну = 42 / 2 = 21 человек
Ответ: В администрации 21 человек.

Теперь реши аналогичную задачу:
[ваша задача]

Преимущество few-shot CoT: вы контролируете формат и глубину рассуждений. Модель будет следовать паттерну, который вы показали в примере.

Tree of Thought: дерево мыслей

Tree of Thought (ToT) — это расширение CoT, где модель рассматривает несколько путей рассуждения параллельно, оценивает каждый и выбирает лучший. Это полезно для задач, где есть несколько возможных подходов и неочевидно, какой правильный.

Задача: Нужно увеличить конверсию лендинга с 2% до 4%.

Рассмотри три разных подхода:

Подход 1: Изменение заголовка и первого экрана
[Рассуждение: какие изменения можно сделать, ожидаемый эффект, риски]
Оценка: насколько это реалистично?

Подход 2: Добавление социального доказательства
[Рассуждение...]
Оценка: ...

Подход 3: Упрощение формы заявки
[Рассуждение...]
Оценка: ...

Итог: какой подход наиболее перспективен и почему? Можно ли комбинировать?

ToT особенно полезен для стратегических решений, где нет единственного правильного ответа. Модель не застревает на первом пути, а исследует пространство решений.

Self-consistency: проверка через повторение

Self-consistency — техника, при которой модель решает одну и ту же задачу несколько раз разными способами и выбирает ответ, который появляется чаще всего. Это работает как «голосование» между несколькими цепочками рассуждений.

Реши задачу тремя разными способами. Если все три способа дают одинаковый ответ — он, скорее всего, верный. Если ответы расходятся — объясни, какой способ более надёжен и почему.

Задача: [ваша задача]

Self-consistency особенно полезна для математических задач и задач на логику, где можно подойти к решению с разных сторон. Если три подхода дают один и тот же ответ, вероятность ошибки значительно снижается.

Когда CoT помогает

CoT наиболее эффективен для задач, которые требуют последовательных рассуждений. Математика и арифметика: многошаговые вычисления, задачи с процентами, конвертация единиц, финансовые расчёты. Логические задачи: головоломки, определение причинно-следственных связей, выявление противоречий. Анализ данных: сравнение нескольких вариантов по нескольким критериям, выявление трендов, прогнозирование.

Планирование: составление плана с зависимостями между этапами, распределение ресурсов, определение приоритетов. Отладка кода: поиск ошибки требует прослеживания логики программы шаг за шагом. Юридический и медицинский анализ: задачи, где нужно последовательно применять правила к конкретной ситуации.

Когда CoT мешает

Не все задачи выигрывают от пошагового рассуждения. В некоторых случаях CoT замедляет процесс и даже ухудшает результат.

Простые фактологические вопросы: «Какая столица Франции?» — CoT добавит ненужные шаги без улучшения точности. Креативные задачи: генерация идей, написание стихов, придумывание историй. Избыточная структурированность может подавить креативность. Задачи на распознавание паттернов: классификация, определение тональности текста, перевод — эти задачи модели решают «интуитивно», и принудительное структурирование не помогает.

Задачи с большим объёмом текста: если нужно обработать длинный текст, CoT-рассуждения занимают часть контекстного окна и могут вытеснить полезную информацию.

Практические примеры: бизнес-задачи

Задача: Мы рассматриваем выход на рынок Казахстана с нашим SaaS-продуктом (CRM для малого бизнеса, подписка $30/мес). Стоит ли это делать?

Давай проанализируем пошагово:
1. Оцени размер рынка (количество малых бизнесов в Казахстане, процент digital-ready)
2. Проанализируй конкурентную среду (локальные и международные CRM)
3. Оцени ценовую чувствительность ($30/мес в контексте казахстанской экономики)
4. Определи основные барьеры входа (язык, локализация, регулирование, платёжные системы)
5. Рассчитай минимальный объём продаж для окупаемости
6. Дай итоговую рекомендацию с обоснованием

Без CoT модель выдала бы общий ответ вроде «Казахстан — перспективный рынок, но есть риски». С CoT — структурированный анализ с конкретными шагами и выводами.

Практические примеры: программирование

Этот код должен возвращать отсортированный список уникальных слов из текста, но работает неправильно. Проанализируй пошагово:

1. Прочитай код и определи, что каждая строка должна делать
2. Пройди по коду с тестовым вводом "hello world hello" и отследи состояние переменных
3. Найди, на каком шаге результат начинает отклоняться от ожидаемого
4. Объясни причину бага
5. Предложи исправление

def unique_sorted_words(text):
    words = text.split()
    unique = set(words)
    return unique.sort()

CoT в программировании — это по сути просьба к модели провести мысленную отладку (trace), что значительно повышает точность диагностики.

Продвинутая техника: направляющие вопросы

Вместо абстрактного «думай пошагово» можно задать конкретные вопросы, которые направляют рассуждение модели:

Прежде чем отвечать, ответь себе на вопросы:
1. Какие ключевые факторы влияют на этот вопрос?
2. Какие предположения я делаю? Обоснованы ли они?
3. Какие данные мне нужны, но которых у меня нет?
4. Какие альтернативные объяснения существуют?
5. Какой ответ был бы при противоположных предположениях?

Теперь, с учётом этого анализа, ответь на вопрос: [ваш вопрос]

Эта техника объединяет CoT с критическим мышлением и часто даёт более взвешенные ответы, чем простое «думай пошагово».

CoT в API и автоматизации

При использовании API (OpenAI, Anthropic) CoT можно применять программно. Некоторые практики: запрашивать рассуждение и ответ в структурированном формате (JSON с полями reasoning и answer), использовать системный промпт для постоянного CoT, объединять CoT с temperature=0 для максимальной воспроизводимости результатов.

Системный промпт:
Ты — аналитик. Перед каждым ответом проведи анализ в теге . Затем дай финальный ответ в теге . Рассуждения в  должны быть подробными, ответ в  — кратким и конкретным.

Этот паттерн (разделение рассуждений и ответа) активно используется в Claude, где он встроен в возможности модели через функцию Extended Thinking.

Ограничения и подводные камни

CoT — не серебряная пуля. У метода есть ограничения, которые важно понимать. Ложная уверенность: модель может построить убедительную, но неверную цепочку рассуждений. Пошаговое изложение создаёт иллюзию тщательности, даже если исходные посылки ошибочны. Затраты токенов: CoT-ответы значительно длиннее, что увеличивает стоимость при использовании API. Propagation of errors: ошибка на раннем шаге «заражает» все последующие шаги.

Поэтому CoT лучше использовать как дополнение к собственной проверке, а не как замену. Пошаговые рассуждения модели помогают вам увидеть её логику и заметить ошибку — но только если вы действительно читаете эти рассуждения, а не просто копируете финальный ответ.

Резюме: когда и как использовать CoT

Используйте CoT для математики, логики, анализа, планирования и отладки — задач, требующих последовательных рассуждений. Не используйте для простых вопросов, креативных задач и распознавания паттернов. Начните с zero-shot (добавьте «думай пошагово»). Если результат недостаточно хорош — переходите к few-shot (покажите пример рассуждения). Для критически важных задач используйте self-consistency (несколько решений + голосование). Всегда проверяйте промежуточные шаги, не доверяйте только финальному ответу.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Корпоративные политики работы с AI: как внедрить безопасно

Пошаговое руководство по созданию корпоративной политики использования AI — от выбора разрешённых инструментов и классификации данных до борьбы с теневым AI и обучения сотрудников

·11 мин

Установка OpenClaw через Docker: пошаговая инструкция

Развёртывание OpenClaw в контейнере Docker: docker run, docker-compose, настройка томов, портов и сетей

·5 мин

Что такое OpenClaw: полный обзор платформы

История создания, архитектура и ключевые отличия агентной платформы OpenClaw от обычных чат-ботов

·7 мин