Пятая колонка

Главная // Пятая колонка // Пророк с опционами: манифест Дарио Амодей как корпоративный документ

Пророк с опционами: манифест Дарио Амодей как корпоративный документ

В мире Большого ИИ больше нет места "нейтральным гениям".

11.03.2026 • Аарон Леа, Борух Таскин

"Трудно заставить человека понять что-либо, если его зарплата зависит от того, что он этого не понимает".
Эптон Синклер

В январе 2026 года Амодей опубликовал 38-страничное эссе "Подростковый возраст технологий". Он полагает, что в течение одного-двух лет может появиться ИИ-система, превосходящая любого существующего специалиста в любой когнитивной задаче. Амодей называет это "страной гениев в дата-центре". Он систематизировал следующие угрозы развития ИИ:

– автономный выход ИИ из-под контроля;

– использование технологии террористами и одиночками для массовых убийств;

– захват власти государствами или корпорациями;

– экономическое вытеснение рабочей силы; непредвиденные косвенные последствия.

Самую большую опасность, пишет Амодей, представляет разработка биологического оружия: модели Anthropic уже сейчас способны двух-трёхкратно повысить вероятность успешной разработки смертельного биоагента любым человеком без профильного образования. Главной геополитической угрозой для развития ИИ назван Китай. В числе предлагаемых мер – "конституционный" ИИ, механистическая интерпретируемость, экспортный контроль микрочипов, поэтапное регулирование. Разберемся – чего в манифесте не хватает.

Ошибка физика

Центральная концепция манифеста – "сжатый век": ИИ способен уместить столетие научного прогресса в десятилетие. Амодей, по образованию физик, конструирует систему уравнений: при достаточной вычислительной мощности возможен быстрый и чистый переход из точки А в точку Б. Проблема в том, что общество – это не физика, а биология. Биологические системы не терпят скачков – они развиваются через кризисы. Промышленная революция, которую принято считать триумфом прогресса, сопровождалась полувековым ростом смертности, распадом традиционных укладов и серией революций.

Скорость перемен в случае появления сверхмощного ИИ будет принципиально выше. Социальные институты – правовые, политические, культурные – формируются поколениями и не масштабируются по требованию техноолигархов. Скорость вычислений растёт экспоненциально – и экспоненту Амодей ошибочно проецирует на общество. Вопрос, который он обходит стороной: что происходит с геополитической стабильностью, если одна из стран достигает "сжатого века" на полгода раньше конкурента? Амодей строит свои прогнозы на экстраполяции: если засунуть в его модель всё наследие человечества, на выходе мы получим решение всех проблем. Однако здесь и кроется фундаментальный изъян. "Страна гениев" рискует оказаться цифровым архивом украденного прошлого, который ИИ будет бесконечно перемалывать, создавая иллюзию прогресса при фактической стагнации смыслов. Оптимизм автора относительно "прекрасного мира по ту сторону перехода" не отменяет взрывной силы самого перехода, который может разрушить культурную и экономическую базу воспроизводства этих самых знаний.

Конституция как акт консерватизма

"Конституционный ИИ" Anthropic – фирменный механизм компании: модели обучаются на наборе ценностей и принципов, кодифицированных в едином документе. Амодей представляет это как ответственный корпоративный путь к безопасности. Однако здесь возникает структурная проблема, которую сам автор не формулирует: любой конституционный ИИ по определению консервативен. Он кодифицирует ценности настоящего для управления будущим. Если возможности ИИ окажутся столь радикальными, что наши сегодняшние представления о вреде и пользе устареют, то "безопасная" по меркам 2026 года система может оказаться опасно наивной по меркам 2035-го. Амодей парирует это, апеллируя к прозрачности конституции: её текст публичен и может быть оспорен. Это честный аргумент. Но он лишь переформулирует проблему: вопрос "кто сторожит сторожей?" заменяется на "кто и как часто получает право переписывать сторожей?" Частота пересмотра конституции в мире ИИ может оказаться важнее её исходного текста. Даже библейский канон не сложился мгновенно – столетия споров и переписываний предшествовали тому, что сегодня кажется незыблемым.

Нормализация опасности

Структурно наиболее уязвимое место манифеста – это не то, что в нём написано, а то, что из него следует. Anthropic является одной из ведущих лабораторий мира по разработке мощных ИИ-систем, а значит, каждый новый релиз компании повышает отраслевую планку того, что считается приемлемым уровнем возможностей. Это создаёт давление на остальных участников рынка – государства, корпорации, open-source сообщества – соответствовать или превосходить достигнутый уровень, зачастую с меньшими инвестициями в безопасность. "Ответственные" релизы Anthropic де-факто нормализуют опасность, устанавливая новые базовые ожидания.

Кремль как предупреждение

Пока западные лаборатории спорят о конституциях и классификаторах, Москва демонстрирует иной сценарий применения ИИ – не созидательный, а разрушительный. В руках Кремля любая технология становится оружием – ИИ не исключение. Российские операции влияния уже используют генеративные модели для масштабного производства дезинформации, дипфейков и микротаргетированной пропаганды в социальных сетях США и Европы. Кибератаки с элементами машинного обучения зафиксированы против энергетической инфраструктуры, избирательных систем и военных коммуникаций стран НАТО.

Однако РФ мыслит не категориями победы в соревновании, а категориями распада и "цап-царап". DeepPavlov (сайт только на английском) в 315 раз меньше Anthropic. Поэтому стратегия Москвы – не захватить систему, а сделать её неработоспособной. И здесь открывается самый долгосрочный ущерб, который Амодей и другие разработчики, мыслящие в логике ответственного корпоративного строительства, могут просто не замечать. Российская пропаганда промышленных масштабов – статьи, комментарии, фиктивные источники – системно отравляет обучающие данные, на которых строятся сами ИИ-модели. Согласно анализу Центра анализа европейской политики (CEPA) за 2025 год, до 40% генерируемого в интернете контента по конфликтным геополитическим темам уже содержит пророссийские нарративы или искажения. Это означает, что следующее поколение языковых моделей будет обучаться на частично скомпрометированных знаниях, и воспроизводить эти искажения как нейтральный фон. Атака направлена не на конкретную модель, а на саму среду, из которой модели учатся: Кремль не взламывает ИИ, а заражает колодец, из которого пьют все будущие поколения.

Атаки направлены на фундаментальные слои систем ИИ – обучающие данные, веса моделей, выравнивание и поэтому представляют собой экзистенциальную опасность. Отравление данных приводит к повреждению всех последующих моделей. Кража весов способствует неконтролируемому распространению. Обход выравнивания создает вредоносных агентов. В отличие от обычных взломов, эти атаки ставят под угрозу саму суть ИИ, а не только его результаты.

Но есть и третий уровень угрозы, о котором говорят значительно меньше: РФ целенаправленно пытается проникнуть в сами механизмы разработки ИИ – не извне, а изнутри. Речь идёт о нескольких конкретных векторах.

Первый – вербовка и внедрение: российские спецслужбы фиксируются западными контрразведками как активные вербовщики среди сотрудников ИИ-лабораторий, особенно среди специалистов с постсоветским бэкграундом.

Второй – участие в открытых экосистемах: российские разработчики активно участвуют в open-source проектах, лежащих в основе крупнейших моделей, что создаёт потенциал для внедрения скрытых уязвимостей на уровне базовых библиотек.

Третий – академическое проникновение: через совместные публикации, конференции и исследовательские партнёрства формируются каналы передачи знаний, которые сложно квалифицировать юридически, но которые реально работают на сокращение технологического разрыва.

Последствия реализации этих сценариев трудно переоценить. Скомпрометированная модель, намеренно обученная с бэкдором, может годами работать штатно, и активироваться по команде в критический момент. Утечка архитектурных решений позволяет противнику не изобретать, а копировать, экономя годы разработки. Встроенные уязвимости в базовых библиотеках могут распространиться по всей отрасли прежде, чем будут обнаружены. Меры противодействия существуют, но требуют политической воли, которой пока недостаточно. Необходим обязательный security clearance для сотрудников, работающих с наиболее чувствительными уровнями обучения моделей. Open-source контрибьюции в критическую инфраструктуру ИИ требуют верификации источника – по аналогии с тем, как это уже работает в телекоммуникационном секторе применительно к Huawei. Наконец, отраслевой обмен разведывательными данными об угрозах между лабораториями и спецслужбами демократических стран – то, что в кибербезопасности давно стало нормой – в сфере ИИ только начинает формироваться.

Амодей пишет о необходимости международного сотрудничества. Но сотрудничество с союзниками и противодействие противникам – это не одна политика, а две совсем разные, требующие разных институтов. Парадокс очевиден: технология, созданная в Силиконовой долине для развития человеческого потенциала, системно применяется для подрыва тех самых демократических институтов, которые её породили.

Амодей подробно пишет о Китае, но недооценивает РФ как лабораторию деструктивного ИИ, ведь для Кремля дестабилизация и есть стратегия. Пока Пекин строит вертикаль власти с помощью ИИ, Москва мастерит воронку хаоса. Для корпоративного сознания, ориентированного на порядок и конституции, второй противник может быть опаснее первого именно потому, что он не наблюдаем в его оптике.

Парадокс Кассандры

Наиболее деликатный аспект манифеста – это ситуация, в которой находится сам автор. Амодей предупреждает о рисках концентрации власти в руках технологических корпораций. Open AI Альтмана с 730-ю миллиардами, и впереди xAI Маска с 230-мя), и ее рыночная стоимость напрямую зависит от того, что инвесторы разделяют его картину мира: будущее достаточно опасно, чтобы платить премию за конкретную архитектуру безопасности. Это не делает аргументы Дарио ложными, но создаёт системный стимул, который необходимо учитывать при чтении манифеста. Пророк, чей авторитет конвертируется в рыночную стоимость его компании, находится в структурно ином положении, нежели независимый эксперт. Это уже не вопрос личной честности, а институционального дизайна.

И вот что еще действительно важно – другой титан индустрии, глава Palantir Алекс Карп принципиально расходится с Амодей в оценке развития ИИ. Дарио мыслит категориями риска и конституций, а Алекс в Давосе заявил прямо: ИИ "уничтожит рабочие места гуманитариев", что для него не катастрофа, а естественный отбор. На вопрос Финка о неравенстве Карп ответил, что Америка и Китай "понимают версии того, как заставить это работать" – только эти две страны способны масштабировать применение ИИ. Финк, управляющий $10 трлн. BlackRock, смотрит ещё прагматичнее: ИИ – это, прежде всего, капитал, а не угроза. Там, где Амодей видит цивилизационный экзамен, Карп видит конкурентное преимущество, а Финк – просто еще один класс активов.

События конца февраля 2026 года превратили "ошибку физика" в политическую катастрофу. Пока Амодей колдовал над "конституцией", администрация Трампа де-факто приравняла Anthropic к иностранному врагу, присвоив компании статус "риска для цепочки поставок". Стремительная сделка OpenAI с Пентагоном окончательно фиксирует новую реальность: в мире Большого ИИ больше нет места "нейтральным гениям". Выбор жесток: либо ты становишься частью государственной машины войны, принимая её "технические гарантии", либо оказываешься в "стерильном архиве" прошлого, отрезанный от ресурсов и контрактов. Манифест Дарио оказался эпитафией эпохи, когда Кремниевая долина еще вела себя как суверенная держава, способная диктовать этику военным. Впрочем, маршал Митрофан Неделин известно как ответил академику Андрею Сахарову – сальным анекдотом – "давайте же выпьем за укрепление, а направить мы и сами можем".

В целом нам кажется, что Амодей опубликовал содержательный и добросовестный документ. Риски, которые он описывает, заслуживают серьёзного политического внимания. Предложенные меры – в особенности экспортный контроль над чипами – конкретны и исполнимы. Следует отметить и личное обязательство: все семь сооснователей Anthropic публично заявили о намерении передать в благотворительность 80% своего состояния, что несколько смягчает обвинения в корыстолюбии. Вместе с тем документ следует читать в контексте его происхождения: это текст руководителя крупного бизнеса, написанный в момент, когда регуляторная среда для его отрасли ещё не сложилась.

Дискуссия об ИИ нуждается в голосах Альтмана, Амодей, Маска, Тиля – инсайдеров, видящих проблему изнутри. Она нуждается также в голосах тех, кто не имеет в этой дискуссии финансового интереса, – наблюдателей, способных увидеть то, что неизбежно ускользает от взгляда инсайдеров. Мы и попытались это сделать.

Об авторе:

Аарон Леа

Об авторе:

Борух Таскин