Бунт в AI-лабораториях: сотрудники против военных контрактов
Когда руководство AI-компаний соглашается на военные контракты, сотрудники начинают бунтовать. Отставки, открытые письма, судебные иски: как AI-инженеры борются за этику внутри собственных компаний.
Тип материала: Анализ
Кейтлин Калиновски проработала в OpenAI два с половиной года. Она руководила командой, разрабатывающей мультимодальные возможности GPT-5. 1 марта 2026 года она подала заявление об увольнении. В открытом письме, опубликованном на LinkedIn, она написала: «Я не могу оставаться в компании, которая сделала выбор в пользу прибыли за счёт принципов. Контракт с Пентагоном, подписанный в тот день, когда наш конкурент был наказан за отказ, — это не "ответственное партнёрство". Это оппортунизм, который войдёт в историю как момент позора для всей индустрии».
Калиновски — не первая и не последняя. Но её уход символичен: она — одна из ведущих инженеров OpenAI, и её публичная позиция не могла остаться незамеченной. За первые две недели марта из OpenAI ушли ещё четыре старших инженера. Из Google — два. Это не массовый исход, но это — сигнал.
**Amicus brief от 30+ сотрудников.** 12 марта 2026 года группа из 32 действующих и бывших сотрудников OpenAI и Google подала amicus brief (заключение друга суда) в поддержку Anthropic в её иске против Пентагона. Документ, составленный юристами EFF (Electronic Frontier Foundation), не оспаривал конкретные действия работодателей — это было бы рискованно для тех, кто ещё работает. Вместо этого он описывал «системное давление» на AI-инженеров, которых вынуждают работать над военными проектами без адекватного информирования о конечном назначении технологии.
Один из подписантов (анонимно, через адвоката) заявил: «Меня попросили оптимизировать время отклика модели для "правительственного клиента". Через три месяца я узнал, что эта оптимизация использовалась для обработки данных дронов в реальном времени. Я подписывал контракт для работы над AI-ассистентом, а не над компонентом оружейной системы».
**«Сотрудники в ярости».** По данным The Information, внутренняя реакция в OpenAI на контракт с Пентагоном была значительно жёстче, чем публичная. Источник, близкий к руководству, описал атмосферу как «fuming» — кипящую от ярости. На внутреннем форуме OpenAI (Slack-канал #ethics) за первые 48 часов после объявления было оставлено более 800 сообщений. Большинство — негативных. Руководство провело два all-hands собрания, на которых Сэм Альтман лично отвечал на вопросы. По свидетельству участников, встречи были «напряжёнными, но не конструктивными».
Проблема OpenAI усугубляется структурно. После преобразования в коммерческую организацию (for-profit restructuring в конце 2024 года) сотрудники потеряли часть формальных механизмов влияния на стратегические решения, которые существовали в рамках некоммерческой структуры. Board of Directors теперь подотчётен акционерам, а не миссии. Для инженеров, которые пришли в OpenAI ради миссии «безопасного AGI», это болезненный сдвиг.
**Письмо 35 подписантов в Конгресс.** 8 марта, за день до подачи иска Anthropic, группа из 35 сотрудников различных AI-компаний (OpenAI, Google, Meta, Anthropic, Cohere) направила открытое письмо лидерам обеих партий в Конгрессе. Письмо требовало: принятия федерального закона о прозрачности военных AI-контрактов, создания независимого органа по аудиту военного AI, защиты whistleblowers (информаторов) в AI-компаниях, работающих на оборонку.
Ключевой абзац письма: «Мы — инженеры, исследователи и менеджеры, создающие самые мощные AI-системы в мире. Мы обладаем техническим пониманием того, на что способны эти системы и какие риски они несут. Наши работодатели заключают контракты, о содержании которых мы часто узнаём из новостей. Мы требуем права знать, для чего используется наша работа, и права отказаться от участия в проектах, которые мы считаем неэтичными».
**Историческая параллель: Google и Project Maven.** В 2018 году около 4000 сотрудников Google подписали петицию против Project Maven — контракта с Пентагоном на AI-анализ видео с военных дронов. Под давлением Google отказалась от контракта и опубликовала «AI Principles» — набор этических принципов использования AI. Это был триумф внутрикорпоративного активизма.
Восемь лет спустя ситуация изменилась. Google не просто вернулась к военным контрактам — она масштабировала их. Что изменилось? Во-первых, экономическое давление: гонка AI требует колоссальных инвестиций, и государственные контракты — один из немногих стабильных источников дохода. Во-вторых, структура: создание Google Public Sector позволило изолировать военные контракты от основной команды. В-третьих, рынок труда: в 2018 году AI-инженеры были дефицитным ресурсом и могли диктовать условия. В 2026 году рынок более сбалансирован, и ультиматумы сотрудников имеют меньший вес.
**Проблема «информационной изоляции».** Один из ключевых тезисов amicus brief — систематическая информационная изоляция инженеров от конечного применения их работы. Компании используют модульную структуру разработки: один человек работает над оптимизацией скорости, другой — над качеством генерации, третий — над безопасностью. Никто из них не знает, для какого конкретно клиента предназначена итоговая система. Военные контракты часто проходят под кодовыми названиями или через подрядчиков вроде Palantir, и инженеры могут годами не знать, что их работа используется в оборонных целях.
Это не случайность — это дизайн. Информационная изоляция снижает риск утечек и внутреннего сопротивления. Но она же создаёт этическую проблему: можно ли нести моральную ответственность за последствия работы, о которых ты не знал?
**Цена активизма.** Открытый протест в AI-индустрии — рискованный шаг. Несколько сотрудников, подписавших письмо в Конгресс, сообщили о давлении со стороны работодателей. Двое были «переведены на другие проекты», что они интерпретировали как наказание. Один сотрудник OpenAI, попросивший об анонимности, рассказал The Verge: «Мне прямо сказали: если ты не согласен с направлением компании, тебе лучше уйти. Но если ты уйдёшь с шумом, твои опционы могут быть пересмотрены».
Угроза потери опционов — мощный сдерживающий фактор. Для старших инженеров AI-компаний опционы могут стоить миллионы долларов. Публичный конфликт с работодателем может привести к юридическим спорам о вестинге, которые длятся годами. Калиновски, уходя из OpenAI, предположительно оставила опционы на сумму свыше $8 миллионов.
**Что дальше?** Протест сотрудников AI-компаний находится на ранней стадии. Он не привёл к массовым увольнениям или забастовкам. Но он создал юридический прецедент (amicus brief), политическое давление (письмо в Конгресс) и публичный нарратив, который компаниям всё сложнее игнорировать.
Важнее всего, возможно, культурный сдвиг. В 2020 году AI-инженер, отказавшийся от работы над военным проектом, рисковал быть воспринятым как «наивный идеалист». В 2026 году тот же отказ всё чаще воспринимается как акт профессиональной ответственности. Языковые модели не создают себя сами. За каждой строчкой кода стоит человек, и всё больше этих людей хотят знать — и влиять на то — куда ведёт их работа.
Мы наблюдаем формирование нового типа профессиональной этики. Не в абстрактных декларациях, а в конкретных действиях: увольнениях, письмах, судебных документах. Это болезненный и медленный процесс. Но он необходим.
Должны ли AI-инженеры нести личную моральную ответственность за военное применение технологий, которые они создают, — или это ответственность компании и государства, а не отдельного разработчика?
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceКреативные профессии vs AI: копирайтеры, дизайнеры, видеопродакшн
Креативный класс считал себя неуязвимым для автоматизации. AI-генераторы текста, изображений и видео доказали обратное — но полная картина сложнее, чем кажется.
Синие vs белые воротнички: великий AI-разворот
Джеффри Хинтон считает ручной труд наиболее защищённым от AI. 76% американцев согласны. Но робототехника не стоит на месте.
Как AI убил Chegg. История компании, которая не успела измениться
Chegg сократил 45% сотрудников из-за AI. История краха бизнес-модели.