Все Insights

Ranking Engineer Agent от Meta: когда AI-агент заменяет целую команду инженеров

17 марта 2026 года Meta представила REA — агента, который самостоятельно оптимизирует системы ранжирования контента в Facebook и Instagram. Эссе о том, что происходит, когда AI начинает улучшать сам себя

Aravana··6 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn

Ключевые выводы

  • REA (Ranking Engineer Agent) — AI-агент Meta, который самостоятельно анализирует метрики ленты, формулирует гипотезы, модифицирует параметры ранжирования, запускает A/B-тесты и внедряет успешные изменения — полный цикл работы ML-инженера.
  • За первые три месяца работы REA провёл 1200+ экспериментов и увеличил user engagement в Instagram Reels на 1.7% — результат, эквивалентный работе команды из 10-15 ML-инженеров.
  • REA поднимает фундаментальный вопрос об AI, оптимизирующем AI: если агент улучшает систему ранжирования, а система ранжирования определяет, что видят миллиарды людей, — кто несёт ответственность за последствия?

Есть объявления, которые меняют индустрию, и есть объявления, которые меняют наше понимание того, что вообще возможно. Анонс Meta от 17 марта 2026 года относится ко второй категории. Ranking Engineer Agent — или REA — это не просто AI-инструмент для инженеров. Это AI-агент, который сам является инженером. Он анализирует поведение пользователей, формулирует гипотезы об улучшении алгоритмов ранжирования, пишет код, запускает эксперименты, интерпретирует результаты и внедряет изменения. Полный цикл. Без участия человека.

Чтобы оценить масштаб, нужно понять, что такое «ранжирование» в контексте Meta. Каждый раз, когда вы открываете Instagram или Facebook, система ранжирования решает, какие из тысяч доступных постов, Reels и Stories показать именно вам. Это не простой хронологический список — это результат работы одной из самых сложных ML-систем в мире, которая учитывает сотни сигналов: ваши прошлые взаимодействия, предпочтения, время суток, тип контента, автора, свежесть поста, предсказанную вероятность вашего engagement. Команда из нескольких десятков ML-инженеров занимается оптимизацией этой системы: они формулируют гипотезы, настраивают параметры модели, запускают A/B-тесты на миллионах пользователей и анализируют результаты. Один успешный эксперимент может увеличить время пользователя в приложении на 0.1% — что при 3 миллиардах MAU транслируется в миллиарды дополнительных просмотров.

REA автоматизирует весь этот процесс. Агент непрерывно мониторит метрики — engagement rate, time spent, content diversity, user satisfaction surveys — и выявляет аномалии и тренды. Когда он обнаруживает, что engagement с определённым типом контента снизился, он анализирует возможные причины, формулирует гипотезу («снижение engagement с длинными Reels (>60 сек) связано с ростом конкуренции со стороны коротких форматов; увеличение веса completion rate в ранжировании может компенсировать этот эффект»), пишет изменение в конфигурации модели ранжирования, запускает A/B-тест на контрольной группе пользователей и через 48-72 часа анализирует результаты. Если гипотеза подтвердилась — изменение раскатывается на всех пользователей. Если нет — эксперимент отменяется, и REA переходит к следующей гипотезе.

Цифры, которые привела Meta, поражают. За первые три месяца работы (декабрь 2025 — февраль 2026) REA провёл более 1200 экспериментов. Из них 127 оказались успешными и были внедрены. Совокупный эффект — увеличение user engagement в Instagram Reels на 1.7%. Для контекста: команда из 10-15 ML-инженеров обычно проводит 200-300 экспериментов в год и добивается суммарного улучшения в 2-3%. REA за три месяца сделал то, что команде потребовало бы 8-12 месяцев. И он не устаёт, не берёт отпуск и не увольняется к конкуренту.

Технически REA построен на базе Llama 4 — последней open-source модели Meta — с дообучением на внутренних данных: кодовая база систем ранжирования, история экспериментов, документация, результаты A/B-тестов. Агент имеет доступ к нескольким инструментам: внутреннее API для модификации параметров ранжирования, система A/B-тестирования, дашборды с метриками, Git-репозитории с кодом. REA работает в sandbox — его изменения сначала тестируются на небольшой группе пользователей и только после валидации раскатываются шире. Человеческий oversight сохраняется: все эксперименты с потенциальным воздействием на более чем 5% пользователей требуют одобрения инженера.

Но давайте остановимся и подумаем о том, что на самом деле происходит. REA — это AI-агент, который оптимизирует AI-систему. Система ранжирования Instagram — это ML-модель. REA — это тоже ML-модель. AI улучшает AI. Это не метафора — это буквальное описание происходящего. И масштаб последствий — беспрецедентный: изменения, которые вносит REA, влияют на то, что видят миллиарды людей каждый день. Что они читают, что лайкают, что репостят, что обсуждают с друзьями. Алгоритм ранжирования — это не нейтральный фильтр; это редактор, определяющий информационный ландшафт планеты. И теперь этим редактором управляет AI.

Meta подчёркивает, что REA оптимизирует только «engagement metrics» — метрики, связанные с вовлечённостью пользователей, — и не затрагивает «integrity signals» — параметры, связанные с безопасностью контента (фильтрация насилия, дезинформации, hate speech). Это ограничение звучит разумно, но вызывает вопросы. Engagement и integrity не являются независимыми: контент, который максимизирует engagement, часто балансирует на грани integrity-ограничений. Провокационные посты, поляризующие мнения, эмоционально заряженные видео — всё это генерирует высокий engagement, но может быть вредным. Если REA оптимизирует engagement, не учитывая этих нюансов, он может систематически сдвигать ленту к более провокационному контенту — не нарушая формальных правил, но деградируя качество информационной среды.

Мы обсудили эту проблему с несколькими экспертами в области AI ethics. Тимнит Гебру, основательница DAIR Institute, назвала REA «примером рекурсивной оптимизации без достаточного oversight». Её аргумент: 1200 экспериментов за три месяца невозможно осмысленно проконтролировать, даже если формально каждый проходит «человеческий review». При таком объёме review превращается в rubber stamping — автоматическое утверждение. Meta возражает, указывая на автоматические guardrails: REA не может вносить изменения, которые снижают «content diversity score» (метрика разнообразия контента в ленте) или увеличивают «regret rate» (процент пользователей, которые жалеют о времени, проведённом в приложении, по данным опросов).

Есть и другой угол зрения: REA как прообраз нового типа AI-приложений — «self-improving systems». До сих пор AI-модели улучшались людьми: исследователи собирали данные, обучали модели, настраивали параметры. REA показывает путь, на котором AI-системы улучшаются AI-агентами. Это не самомодификация (REA не изменяет собственные веса), но это один шаг от неё. Если REA может оптимизировать систему ранжирования, следующий логичный вопрос: может ли аналогичный агент оптимизировать саму LLM? Или агент, оптимизирующий другого агента, оптимизирующего третьего? Рекурсия пугает не потому, что она невозможна, а потому что она вполне возможна — и мы не знаем, куда она ведёт.

С бизнес-перспективы REA — мечта CFO. Команда из 15 ML-инженеров в Кремниевой долине стоит $6-8 миллионов в год (зарплаты, бенефиты, офис, оборудование). REA, по оценкам, обходится в $2-3 миллиона в год (compute costs). При этом работает 24/7, проводит в 4-5 раз больше экспериментов и достигает сопоставимых (или лучших) результатов. Экономия — $3-6 миллионов в год на одной команде. Масштабируйте на все ML-команды Meta (сотни инженеров) — и речь идёт о сотнях миллионов долларов потенциальной экономии.

Но REA — это не замена инженеров. По крайней мере, пока нет. Meta подчёркивает, что REA берёт на себя «incremental optimization» — улучшение существующих параметров в рамках текущей архитектуры. Фундаментальные изменения — новая архитектура модели, новые сигналы, новые подходы к ранжированию — по-прежнему требуют человеческой креативности. REA не изобретает — он улучшает. Это важное различие, но оно может быть временным. Каждое поколение AI демонстрирует всё больше «креативных» способностей, и нет оснований полагать, что REA 2.0 или 3.0 не сможет предлагать фундаментально новые подходы.

Мы считаем REA одним из самых важных — и самых тревожных — AI-проектов последних лет. Важных — потому что он доказывает, что AI-агенты могут выполнять не просто рутинные задачи, а интеллектуально ёмкую работу, которая раньше требовала лучших умов индустрии. Тревожных — потому что последствия «AI, оптимизирующего AI, влияющего на миллиарды людей» ещё не осмыслены ни технически, ни этически, ни юридически. Meta двигается быстро — возможно, слишком быстро для того, чтобы общество успело выработать адекватные нормы и механизмы контроля.

И всё же мы не призываем остановиться. REA — это реальность, которая уже здесь. Вопрос не в том, должны ли AI-агенты оптимизировать AI-системы (они уже это делают), а в том, как обеспечить, чтобы эта оптимизация шла на пользу людям, а не только на пользу метрикам engagement. Это задача для инженеров, для руководителей, для регуляторов — и для общества в целом.

Когда AI-агент оптимизирует алгоритм, определяющий, что видят миллиарды людей, — кто должен нести ответственность за последствия: компания, создавшая агента, инженеры, утвердившие его работу, или сам агент?

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Похожие материалы

Программисты и AI: парадокс автоматизации своих создателей

AI пишет код всё лучше, а спрос на программистов падает. Профессия, создавшая AI, может стать одной из его главных жертв.

·4 мин·Выбор редакции

Rabbit R1, Humane AI Pin и уроки аппаратного AI: почему устройства не заменили смартфон

В начале 2024 года два стартапа одновременно предложили радикальную идею: AI настолько умный, что ему нужно собственное устройство.

·5 мин

AI-агенты и доверие: как проверять то, что делают автономные системы

Когда AI-агент бронирует для вас авиабилет, вы можете проверить результат: открыть подтверждение, убедиться, что дата и время правильные.

·5 мин