Все Insights

Панель «AI-тревожность» на Давосе: как говорить о страхе и неопределенности

Одна из самых необычных панелей Давоса-2026 была посвящена не возможностям AI, а страху перед ним. Психологи, философы и технологи попытались разобраться, откуда берется AI-тревожность и что с ней делать.

Aravana··10 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
\xD0\x9A\xD0\xB0\xD0\xBA \xD0\xB2\xD0\xB0\xD0\xBC \xD0\xBC\xD0\xB0\xD1\x82\xD0\xB5\xD1\x80\xD0\xB8\xD0\xB0\xD0\xBB?

Среди десятков панелей Давоса-2026, посвященных возможностям, инвестициям и регулированию AI, одна выделялась названием и тональностью. «AI-тревожность: адресуя страх и неопределенность» собрала необычный состав участников: клинического психолога, философа из Оксфорда, бывшего CEO технологической компании, ушедшего в отставку из-за «экзистенциальных вопросов об AI», и нейробиолога, изучающего механизмы страха. Модерировала дискуссию журналистка, которая последние два года освещала психологическое воздействие AI на общество.

Начало было неожиданным для Давоса. Психолог попросила аудиторию анонимно ответить на вопрос: «Вызывает ли AI у вас тревогу?» Результат опроса, проведенного через приложение форума, показал, что более семидесяти процентов участников -- руководителей компаний, политиков, инвесторов -- ответили утвердительно. Для аудитории, профессионально связанной с технологиями и привыкшей к публичному оптимизму, это был показательный результат.

Нейробиолог объяснил механизм. Страх перед AI активирует те же нейронные контуры, что и другие экзистенциальные угрозы: потеря контроля, непредсказуемость, угроза идентичности. Человеческий мозг плохо приспособлен к оценке рисков от технологий, которые развиваются экспоненциально: мы интуитивно экстраполируем линейно и систематически недооцениваем скорость изменений. Результат -- хроническая тревога, питаемая неспособностью адекватно оценить ситуацию.

Философ предложила типологию AI-тревожности. Первый тип -- экономический: страх потерять работу, доход, социальный статус. Второй -- экзистенциальный: страх, что AI превзойдет человека интеллектуально и лишит человеческое существование смысла. Третий -- апокалиптический: страх перед неконтролируемым superintelligence, который уничтожит или поработит человечество. Четвертый -- моральный: тревога по поводу этических решений, принимаемых AI-системами без участия человека. Каждый тип требует разного ответа.

Бывший CEO рассказал личную историю, которая произвела сильное впечатление на аудиторию. Руководя технологической компанией, он продвигал AI-автоматизацию как инструмент эффективности. Когда он увидел, как AI-системы начали принимать решения, которые он не мог понять и объяснить, он испытал то, что описал как «кризис ответственности». Решение уйти в отставку было не протестом против AI, а признанием, что он не может нести ответственность за систему, которую не понимает.

Медийный аспект AI-тревожности обсуждался подробно. Новостные заголовки о «конце работы», «восстании машин» и «AI, который умнее человека» формируют общественное восприятие, которое далеко от реальности. Но и технооптимизм AI-компаний, обещающих решение всех проблем, тоже создает тревогу: если обещания не сбудутся, разочарование будет пропорциональным ожиданиям. Журналистка-модератор признала, что медиа несут часть ответственности за уровень общественной тревоги.

Психолог представила данные о влиянии AI-тревожности на рабочее место. Компании, которые внедряют AI без адекватной коммуникации с сотрудниками, сталкиваются с ростом текучести, снижением продуктивности и увеличением числа обращений к программам помощи сотрудникам. Наиболее эффективная стратегия -- прозрачность: сотрудники, которые понимают, как именно AI изменит их работу, испытывают значительно меньшую тревогу, чем те, кто живет в неопределенности.

На панели были предложены конкретные рекомендации. Для компаний: разработать четкие планы AI-трансформации и коммуницировать их сотрудникам заранее. Для правительств: инвестировать в программы поддержки работников, пострадавших от автоматизации, и в AI-грамотность населения. Для медиа: освещать AI сбалансированно, избегая как алармизма, так и некритичного восторга. Для индивидов: признать тревогу как нормальную реакцию и направить энергию на адаптацию, а не на сопротивление.

Философская часть дискуссии затронула глубинный вопрос: является ли AI-тревожность рациональной? Ответ оказался неоднозначным. Страх потерять работу -- рационален для конкретных профессий и подтвержден данными. Страх перед superintelligence -- спекулятивен, но поддерживается частью экспертного сообщества. Страх перед потерей смысла -- философски обоснован, но не специфичен для AI: каждая крупная технологическая революция вызывала аналогичные вопросы. Тревога -- это не ошибка мышления, а сигнал о необходимости адаптации.

Панель завершилась словами нейробиолога, которые стали одной из наиболее цитируемых фраз форума: «Тревога -- это не слабость. Это нормальная реакция интеллекта на неопределенность. Проблема возникает тогда, когда тревога парализует вместо того, чтобы мобилизовать. Наша задача -- превратить AI-тревожность из источника паралича в источник действия». Для Давоса, где принято демонстрировать уверенность и оптимизм, откровенный разговор о страхе оказался удивительно освежающим -- и, возможно, более полезным, чем десятки панелей о следующем триллионном рынке.

Связанные темы:Future of WorkStrategy & Adaptation

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Консенсус Давоса: AI нужна глобальная координация, но никто не согласен в деталях

WEF 2026 выявил парадокс: все участники форума согласны с необходимостью международной координации по AI, но расходятся буквально во всем остальном.

·8 мин

AI и религия на Давосе: религиозные лидеры обсуждают технологическую трансформацию

Впервые на Давосе состоялась панель с участием представителей крупнейших религий, обсуждавших AI. Их перспектива оказалась неожиданно релевантной.

·10 мин

Что Давос не понял про AI: критики отвечают

Не все согласны с давосским консенсусом. Исследователи, активисты и предприниматели указывают на слепые пятна форума -- от проблем безопасности до игнорирования глобального юга.

·9 мин