После 48 часов блокировки Claude занял первое место в App Store

被封禁 48 часов, и Claude занял первое место в App Store

Утром в субботу, Отман разместил в X скриншот внутреннего письма.

Это письмо он написал в ночь с четверга на пятницу для сотрудников OpenAI, в нем говорилось, что компания ведет переговоры с Пентагоном, и он надеется помочь «смягчить ситуацию». Он перепостил это письмо с несколькими пояснениями, в основном чтобы публично объяснить, что происходило в последние дни.

Когда он опубликовал этот твит, Claude уже поднялся на первое место в списке бесплатных приложений в App Store США. За день до этого, ChatGPT еще занимал ту позицию.

Данные Sensor Tower за последующие часы зафиксировали следующее: в субботу за один день количество скачиваний ChatGPT в США выросло на 295% по сравнению с обычным днем, количество одностарных отзывов увеличилось на 775%. В то же время, скачивания Claude за тот же день выросли на 51%. На Reddit появились посты с призывами «Отменить ChatGPT», пользователи публиковали скриншоты отмены подписки, кто-то в комментариях писал «самое быстрое установление в моей жизни». Запустился сайт QuitGPT.org, заявляющий, что 1,5 миллиона человек уже приняли меры.

В понедельник поток новых пользователей был настолько большим, что Claude вышел из строя. Компания, которая была признана «риском для безопасности цепочки поставок» федеральным правительством, не справилась с наплывом пользователей, серверы не выдержали нагрузки.

Точная контрнаступательная мера продукта

В тот же день, когда началась волна удалений, Anthropic выпустила инструмент для переноса памяти.

Функционал несложный. Пользователь копирует подсказку в ChatGPT, он выводит все сохраненные воспоминания и предпочтения, затем вставляет их в Claude, и Claude одним кликом импортирует их, продолжая работу с того места, где пользователь остановился в ChatGPT. В официальном описании всего одна фраза: «переключитесь на Claude без начала заново».

Самое важное в этом инструменте — его своевременность.

Данные OpenAI показывают, что к середине 2025 года более 70% сценариев использования ChatGPT — это нерабочие задачи: повседневные вопросы, писательство, развлечения, поиск информации. Это первый AI, с которым сталкивается большинство людей, он встроен в их повседневную жизнь через обширную экосистему плагинов, Voice Mode и глубокую интеграцию сторонних приложений. Для таких пользователей переключение — не просто «скачать новое приложение», а заново научить AI, который вас не знает, с нуля понять, кто вы. Накопление памяти — одна из главных причин, почему они продолжают пользоваться этим AI.

Исследования Anthropic показывают, что сценарии использования Claude очень сосредоточены. 34% — программирование и математика, это самый крупный сегмент, за ним идут образование и научные исследования, которые за последний год выросли быстрее всего. Основные пользователи — разработчики, исследователи и активные писатели. Эти люди более рациональны, их легче заменить инструментом при ясной ценностной оценке, если стоимость переноса минимальна.

Инструмент переноса памяти снижает этот барьер до минимума. В то же время, Anthropic объявила о полном открытии функции памяти для бесплатных пользователей, ранее она была доступна только по подписке.

Но часть новых пользователей — это не те, на кого изначально ориентировался Claude.

По отзывам в соцсетях, многие обычные пользователи, перешедшие с ChatGPT, при первом использовании Claude часто говорят: «Он другой». Некоторые считают, что ответы Claude глубже, он склонен возвращать их назад, а не соглашаться со всем. Другие отмечают, что в писательстве он чище, но не умеет генерировать картинки и не имеет такой интерактивности, как Voice Mode.

Некоторые искали «более послушную замену ChatGPT», но обнаружили, что у Claude более яркая личность, и адаптация к нему требует времени. Статья в TechRadar с руководством по миграции за последние дни была широко распространена, с заголовком «Хотел бы, чтобы мне об этом кто-то рассказал раньше». Основная идея — логика использования Claude и ChatGPT кардинально различна: первый больше похож на позиционированного коллегу с собственным мнением, второй — на универсального помощника.

Эти различия изначально были частью позиционирования двух продуктов, но в этот раз они были неожиданно усилены. Пользователи, пришедшие из-за моральных позиций, обнаружили продукт, который отличается от их ожиданий — более требовательный, с границами. Это могло стать причиной ухода, но в этот особый момент это стало причиной остаться: если вы верите в позицию компании, вам проще принять её логику.

Через несколько дней после запуска Anthropic опубликовала данные: активных бесплатных пользователей стало на 60% больше по сравнению с январем, ежедневных регистраций — в четыре раза больше. Claude временно вышел из строя из-за перегрузки, тысячи пользователей сообщили о невозможности войти, и через несколько часов проблема была решена.

Три слова в контракте: что сказала и сделала OpenAI

Anthropic — первая коммерческая компания, которая развернула AI-модель в секретной сети американской армии, сотрудничество осуществлено через Palantir, стоимость контракта — около 200 миллионов долларов. Но за последние несколько месяцев отношения между ними ухудшились. Основной спор — пункт: Пентагон требует, чтобы AI-модели были открыты для «всех законных целей» без каких-либо условий. Anthropic настаивает, что в контракте должны быть исключения: не использовать для массового слежения за гражданами США и не применять в полностью автономных оружейных системах.

Около 20 февраля, по сообщениям, один из руководителей Anthropic поинтересовался у партнера Palantir о способах использования Claude в операции по задержанию в январе венесуэльского президента Мадуро, вызвав этим сильное недовольство военных. В четверг Пентагон вынес ультиматум, требуя, чтобы Дарио Амодей (Dario Amodei) до 17:00 того же дня дал ответ.

Амодей до истечения срока опубликовал заявление, в котором заявил, что компания не может принять текущие условия, «не потому, что мы против военного использования, а потому, что в некоторых случаях считаем, что AI может разрушить, а не защищать демократические ценности». В тот же день Трамп объявил о полном прекращении использования продуктов Anthropic в федеральных структурах в течение шести месяцев, а Хегсетх (Hegseth) включил их в список «рисков для безопасности цепочки поставок», что обычно применяют к иностранным противникам. Контракт был расторгнут.

На освободившееся место быстро нашли замену. В тот же вечер OpenAI объявила о подписании контракта с Пентагоном. Внутри компании Отман в четверг написал внутреннее письмо, в котором ясно выразил позицию: это — «проблема всей индустрии». Он заявил, что OpenAI и Anthropic придерживаются одних и тех же «красных линий»: противостоять массовому слежению и автономным оружиям. В пятницу было достигнуто соглашение, модели будут развернуты в секретной сети армии, ограничены только облачным запуском, с постоянным контролем инженеров, и в контракте прописаны те же два ограничения.

Позже Отман в X начал отвечать на вопросы, отвечая несколько часов. Его спросили: почему Пентагон принял OpenAI, а запретил Anthropic? Он ответил: «Anthropic кажется более сосредоточенной на конкретных запретах в контракте, а не на цитировании применимых законов, и нам нравится, что они ссылаются на законы».

Эта фраза — о различиях в подходах, но именно она открыла истинную суть спора.

Ключ к провалу переговоров с Anthropic — это фраза, которую Пентагон настаивал включить: что AI-системы могут использоваться «для всех законных целей». Anthropic отказалась, потому что в контексте национальной безопасности эта формулировка не является жестким ограничением. Законодательство во многих аспектах еще не успело за развитием AI, и «законность» будет определяться интерпретацией правительства. OpenAI согласилась с этим пунктом, заявив, что в контракте прописаны такие же меры защиты.

Юридические эксперты проанализировали опубликованные OpenAI условия контракта и указали на две конкретные проблемы в формулировках.

Первое — пункт о слежке: там говорится, что система не должна использоваться для «неограниченного» (unconstrained) слежения за личной информацией граждан США. Заместитель директора Центра демократии и технологий Самир Джайн (Samir Jain) отметил, что эта формулировка подразумевает, что разрешена версия с «ограниченной» слежкой. В рамках существующего законодательства государство вполне может легально покупать у данных брокеров информацию о местоположении граждан, их истории просмотров и финансовых данных, а затем анализировать их с помощью AI, что технически не считается «незаконным слежением». В интервью CBS Амодей привел именно этот пример.

Второе — пункт о вооружениях: там говорится, что система не должна использоваться для автономных вооружений «при соблюдении законов, правил или требований департамента, требующих человеческого контроля». Это ограничение подразумевает, что оно действует только в тех случаях, когда уже есть требования к человеческому контролю, и полностью опирается на существующую политику. Но у Пентагона есть право в любой момент менять внутренние правила. Юрист Чарльз Буллок (Charles Bullock) в X отметил, что пункт о вооружениях основан на инструкции DoD 3000.09, которая требует, чтобы командиры сохраняли «достаточный уровень человеческого суждения», а этот «достаточный уровень» — стандарт, который можно интерпретировать гибко.

Ответ OpenAI на эти сомнения — модель работает только в облаке, что исключает возможность прямого внедрения в оружейные системы. В контракте также прописаны конкретные правовые основания, которые более надежны, чем просто запреты в тексте, поскольку основаны на проверенной правовой базе. Отман в ответах признал: «Если в будущем нам придется участвовать в войне, мы это сделаем, но это — риск для нас».

Это не вопрос компромисса двух компаний — одна идет на уступки, другая придерживается принципов, — а принципиально разные подходы к безопасности. В основе OpenAI — «я не буду делать незаконное», у Anthropic — «если закон еще не запретил, но я считаю, что не стоит делать, — я тоже не буду».

Это различие даже породило внутренние трещины в OpenAI. На прошлой неделе несколько сотрудников подписали открытое письмо в поддержку позиции Anthropic, выступая против включения их в список рисков цепочки поставок. Исследователь Leo Gao публично усомнился в том, что контракт компании обеспечивает достаточную защиту. На тротуаре у офиса OpenAI в Сан-Франциско появились граффити с критикой, нарисованные мелом. В офисе Anthropic — поддерживающие сообщения. Многосуточный ответ Отмана в X был в значительной степени адресован внутренней аудитории, которая изначально поддерживала Anthropic.

Два результата одной и той же истории

Много лет Anthropic использует концепцию «предотвращения цивилизационных рисков», сравнивая потенциальные угрозы передовым AI с ядерным оружием, позиционируя себя как страж этой границы. Эта нарратив — ядро их бренда и способ завоевания доверия на рынке.

Во время разгара скандала технологический обозреватель Пакки МакКормик процитировал концепцию Бена Томпсона: «Налог на хайп» (Hype Tax). Идея в том, что если ты строишь влияние на экстремальной нарративе, то когда эта нарратив сталкивается с реальной властью, за нее приходится платить. Ты сравниваешь AI с ядерным оружием — и правительство начнет с тобой обращаться так же.

Anthropic заплатила цену за этот нарратив: потеряла контракт, оказалась в списке рисков, президент назвал их угрозой, все продукты требуют в течение шести месяцев исключить из федеральных систем.

Но в тот же уикенд, в другом измерении, эта же нарратив дала совершенно противоположный эффект.

Обычные пользователи не видели контрактов, юридических объяснений или дебатов о безопасности. Они увидели: одна компания говорит «нет», ее исключают, а другая — «да», контракт получен. Они приняли решение исходя из своих собственных критериев, скачали на 295% больше, заняли первое место в App Store, и серверы упали.

Это — редкий случай коллективного морального заявления потребителей в истории AI-индустрии.

Anthropic не потратила ни копейки на PR-кампанию по этому поводу. Заявление Амодея было сдержанным, он не призывал поддерживать их, не называл OpenAI, не изображал себя мучеником. Но результат все равно произошел.

Здесь есть важный нюанс: событие, которое привело к массовому переходу пользователей к Claude, по сути, — это полностью коммерческое решение OpenAI, которое в условиях конкуренции и при отсутствии контракта было вполне логичным — подписать соглашение и заявить, что обсуждались одинаковые меры защиты. Отман также ясно сказал, что его действия были частью попытки снизить напряженность и не допустить дальнейших ударов по Anthropic.

Как бы ни было, итог — OpenAI получил контракт, а пользователи Anthropic выросли. У обеих сторон есть свои потери и выгоды, только в разных измерениях.

И есть еще один важный момент.

Потерянный контракт Anthropic с Пентагоном — около 200 миллионов долларов.

Текущий годовой доход Anthropic — около 14 миллиардов долларов. План — достичь 26 миллиардов к 2026 году.

В прошлом месяце Anthropic завершила раунд финансирования на 30 миллиардов долларов, оценка компании — 380 миллиардов долларов.

Эти цифры легко подсчитать. Но есть еще один вопрос без ответа: когда AI действительно начнут широко использовать в военных решениях, смогут ли «технические ограничения» и инженеры, которых прописали в контрактах, реально контролировать ситуацию — как у OpenAI, так и у Anthropic, — и смогут ли они обеспечить безопасность?

Этот вопрос — вне рамок уже существующих контрактов и публичных документов.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.45KДержатели:1
    0.00%
  • РК:$2.45KДержатели:1
    0.00%
  • РК:$2.46KДержатели:1
    0.00%
  • РК:$2.46KДержатели:1
    0.00%
  • Закрепить