Luma Uni-1: модель, которая думает, пока создаёт изображения
Luma AI представила первую модель, объединяющую рассуждение и генерацию картинок в одной архитектуре — и она обходит Google и OpenAI на логических бенчмарках.
Тип материала: research
Генерация картинок по тексту — давно не новость. Но что если модель сначала думает над промптом, разбирает его на части, планирует сцену — и только потом рисует? Именно это делает Luma Uni-1, представленная 5 марта 2026 года. В отличие от диффузионных моделей, Uni-1 построена на авторегрессивном трансформере — том же принципе, что и GPT, только для пикселей.
Результаты впечатляют. На логических бенчмарках (правильное количество объектов, пространственные отношения, следование сложным инструкциям) Uni-1 обходит Google Nano Banana 2 и OpenAI GPT Image 1.5. В тестах человеческих предпочтений через Elo-рейтинги модель занимает первое место по общему качеству, стилю, редактированию и работе с референсами. При этом стоимость генерации на 10–30% ниже конкурентов.
Практически Uni-1 умеет то, что раньше требовало цепочки из нескольких инструментов: конвертировать изображения в 76+ художественных стилей, принимать скетчи как входные данные, переносить позы и идентичности из референсных фото, вести многораундовые диалоги с уточнением деталей при сохранении контекста. Цена — около $0.09 за изображение в разрешении 2K.
Luma AI не ограничилась моделью — компания запустила платформу AI-агентов для креативных задач на базе Uni-1. Это не «нарисуй мне котика», а рабочий инструмент для дизайнеров и маркетологов: автоматическая генерация вариаций для A/B тестов, адаптация визуалов под разные платформы, итеративная работа с арт-директором через чат. Граница между «AI-картинками» и профессиональным дизайном продолжает стираться.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.