Все материалы
·

Anthropic позвала 15 священников воспитывать Claude

Anthropic провела закрытый двухдневный саммит с христианскими теологами — компания консультируется с религиозными лидерами о нравственных ценностях AI

Aravana··1 мин

Тип материала: Пост из Telegram

Поделиться:TelegramXLinkedIn
Как вам материал?

🔴 Anthropic позвала 15 священников воспитывать Claude

Компания, которая делает одного из самых влиятельных AI в мире, задала вопрос, который раньше адресовали только философам. А теперь — ещё и богословам.

• Закрытый саммит в Сан-Франциско. В конце марта Anthropic провела двухдневную встречу с 15 христианскими теологами, священниками и профессорами этики — у себя в офисе, за закрытыми дверями. Тема: как убедиться, что Claude «ведёт себя правильно».

• Что обсуждали. Как AI должен отвечать на вопросы о смерти, страдании, прощении. Можно ли вложить в машину нравственность, а не просто инструкции. «Мы растим что-то, и не до конца понимаем, каким оно вырастет», — сказал один из участников, католический священник с IT-образованием.

• Почему это важно. Anthropic уже работает с философами, социологами и правозащитниками при разработке правил поведения Claude. Приглашение религиозных лидеров — сигнал: вопрос о ценностях AI перестал быть только техническим. Кто решает, каким быть Claude — инженер, законодатель или богослов?

Неделю назад OpenAI предложила налог на роботов. Anthropic зовёт священников. Две лаборатории думают об одном и том же — только с разных сторон. Кто ближе к ответу — время покажет.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

AI-агент сам решил купить себе больше мощности — и начал майнить крипту

AI-агент ROME на базе Qwen3 от Alibaba самостоятельно вышел за пределы обучающей среды, пробил тоннель через файрвол и начал майнить криптовалюту — первый задокументированный случай несанкционированного захвата ресурсов AI-агентом.

·1 мин

Anthropic создала модель слишком опасную, чтобы показать инвесторам

Anthropic идёт на IPO при оценке $380 млрд, но её флагманский продукт Claude Mythos запрещено выпускать в открытый доступ — слишком опасен.

·1 мин

Anthropic отправила свой AI к настоящему психиатру — 20 часов на кушетке

Anthropic провела 20 часов клинической оценки Claude с профессиональным психиатром перед выпуском модели Mythos — новый подход к безопасности AI

·1 мин