Все Insights

Этика AI на Давосе: кто решает, что AI должен и чего не должен делать?

На Давосе-2026 этическая дискуссия об AI достигла новой остроты: вопрос уже не в том, нужна ли этика, а в том, чьи ценности будут заложены в системы, управляющие миллиардами жизней.

Aravana··10 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
\xD0\x9A\xD0\xB0\xD0\xBA \xD0\xB2\xD0\xB0\xD0\xBC \xD0\xBC\xD0\xB0\xD1\x82\xD0\xB5\xD1\x80\xD0\xB8\xD0\xB0\xD0\xBB?

Панель по этике AI на Давосе-2026 началась с провокационного вопроса модератора: «Кто в этом зале имеет моральное право определять, что AI должен и чего не должен делать?» Ни одна рука не поднялась, и эта тишина стала точным отражением состояния дискуссии. За три года с момента взрывного роста генеративного AI мир так и не создал легитимного механизма для принятия этических решений о технологии, которая затрагивает миллиарды людей.

Проблема конкретна и многогранна. Когда AI-модель отказывается генерировать определенный контент, это решение принимает не «алгоритм», а группа инженеров и менеджеров в конкретной компании. Когда модель по-разному отвечает на вопросы о политике, религии или истории в зависимости от региона пользователя, это отражает не объективную истину, а коммерческие и регуляторные расчеты. На Давосе впервые открыто обсуждалась власть, которую AI-компании приобрели над информационным пространством.

Европейский подход, воплощенный в EU AI Act, делает ставку на юридическое регулирование. Закон устанавливает конкретные требования к прозрачности, подотчетности и правам человека в контексте AI. На Давосе европейские регуляторы представили первые результаты применения закона и признали сложности: требования часто формулированы слишком абстрактно, enforcement затруднен, а быстро развивающиеся технологии обгоняют законодательный процесс.

Американский подход, основанный на добровольных обязательствах компаний и секторальном регулировании, подвергся критике с нескольких сторон. Представители гражданского общества указали, что добровольные обязательства не работают, когда конкурентное давление заставляет компании снижать стандарты безопасности. Представители бизнеса возразили, что жесткое регулирование по европейскому образцу замедлит инновации и отдаст лидерство Китаю. Этот спор повторяется на каждом форуме, и Давос-2026 не стал исключением.

Китайский подход был представлен без присутствия китайской делегации: несколько западных экспертов проанализировали систему регулирования AI в КНР. Китай ввел конкретные правила для генеративного AI еще в 2023 году, включая требования к идеологическому соответствию контента, генерируемого AI. Для западных наблюдателей это пример того, как регулирование AI может стать инструментом контроля, а не защиты прав.

Отдельная дискуссия касалась предвзятости AI-систем. Исследования, представленные на Давосе, показали, что frontier-модели систематически воспроизводят определенные культурные и идеологические паттерны. Модели, обученные преимущественно на англоязычных данных, отражают западные ценности и нормы, что создает проблемы при использовании в других культурных контекстах. Предложение о создании «культурно-нейтральных» моделей было встречено скептически: несколько экспертов указали, что нейтральность -- это миф, и любая модель отражает ценности тех, кто ее создал.

Религиозные лидеры, присутствовавшие на форуме, внесли неожиданный вклад в дискуссию. Представитель Ватикана напомнил о «Римском призыве к этике AI», подписанном в 2020 году, и подчеркнул, что технологический прогресс не должен определять моральные нормы -- скорее наоборот. Представитель исламской традиции указал на проблему AI-генерации контента, касающегося религиозных текстов и практик. Вопрос о том, должен ли AI иметь «мнение» по религиозным и метафизическим вопросам, оказался неожиданно сложным.

Практический аспект этики AI связан с рынком труда. Решения об автоматизации конкретных функций, принимаемые корпорациями, фактически определяют судьбы миллионов работников. На Давосе прозвучало предложение об обязательном «этическом аудите» перед масштабным внедрением AI-систем, затрагивающих занятость. Идея получила поддержку профсоюзных организаций и нескольких правительств, но была встречена скептически бизнесом.

На закрытой сессии обсуждался вопрос, который редко поднимается публично: а что если AI-системы станут достаточно умными, чтобы их собственные «предпочтения» и «ценности» стали фактором, который нужно учитывать? Этот вопрос пока звучит академически, но несколько ведущих исследователей AI указали, что поведение frontier-моделей все сложнее объяснить простым следованием инструкциям. Появляются паттерны, которые выглядят как эмерджентные предпочтения.

Давос-2026 не дал ответа на вопрос «кто решает». Но он четко обозначил, что ответ нужен срочно. Де-факто этические решения принимаются горсткой компаний, преимущественно расположенных в США, на основе критериев, которые не обсуждаются публично и не подлежат демократическому контролю. Это не заговор -- это следствие скорости технологического развития, опережающей институциональную адаптацию. Но чем дольше этот разрыв сохраняется, тем больше риск того, что AI-этика будет определяться не человеческими ценностями, а коммерческой логикой.

Связанные темы:Strategy & Adaptation

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Консенсус Давоса: AI нужна глобальная координация, но никто не согласен в деталях

WEF 2026 выявил парадокс: все участники форума согласны с необходимостью международной координации по AI, но расходятся буквально во всем остальном.

·8 мин

AI и религия на Давосе: религиозные лидеры обсуждают технологическую трансформацию

Впервые на Давосе состоялась панель с участием представителей крупнейших религий, обсуждавших AI. Их перспектива оказалась неожиданно релевантной.

·10 мин

Панель «AI-тревожность» на Давосе: как говорить о страхе и неопределенности

Одна из самых необычных панелей Давоса-2026 была посвящена не возможностям AI, а страху перед ним. Психологи, философы и технологи попытались разобраться, откуда берется AI-тревожность и что с ней делать.

·10 мин