Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
После 48 часов блокировки Claude занял первое место в App Store
被封禁 48 часов, и Claude занял первое место в App Store
Утром в субботу, Отман разместил в X скриншот внутреннего письма.
Это письмо он написал в ночь с четверга на пятницу для сотрудников OpenAI, в нем говорилось, что компания ведет переговоры с Пентагоном, и он надеется помочь «смягчить ситуацию». Он перепостил это письмо с несколькими пояснениями, в основном чтобы публично объяснить, что происходило в последние дни.
Когда он опубликовал этот твит, Claude уже поднялся на первое место в списке бесплатных приложений в App Store США. За день до этого, ChatGPT еще занимал ту позицию.
Данные Sensor Tower за последующие часы зафиксировали следующее: в субботу за один день количество скачиваний ChatGPT в США выросло на 295% по сравнению с обычным днем, количество одностарных отзывов увеличилось на 775%. В то же время, скачивания Claude за тот же день выросли на 51%. На Reddit появились посты с призывами «Отменить ChatGPT», пользователи публиковали скриншоты отмены подписки, кто-то в комментариях писал «самое быстрое установление в моей жизни». Запустился сайт QuitGPT.org, заявляющий, что 1,5 миллиона человек уже приняли меры.
В понедельник поток новых пользователей был настолько большим, что Claude вышел из строя. Компания, которая была признана «риском для безопасности цепочки поставок» федеральным правительством, не справилась с наплывом пользователей, серверы не выдержали нагрузки.
Точная контрнаступательная мера продукта
В тот же день, когда началась волна удалений, Anthropic выпустила инструмент для переноса памяти.
Функционал несложный. Пользователь копирует подсказку в ChatGPT, он выводит все сохраненные воспоминания и предпочтения, затем вставляет их в Claude, и Claude одним кликом импортирует их, продолжая работу с того места, где пользователь остановился в ChatGPT. В официальном описании всего одна фраза: «переключитесь на Claude без начала заново».
Самое важное в этом инструменте — его своевременность.
Данные OpenAI показывают, что к середине 2025 года более 70% сценариев использования ChatGPT — это нерабочие задачи: повседневные вопросы, писательство, развлечения, поиск информации. Это первый AI, с которым сталкивается большинство людей, он встроен в их повседневную жизнь через обширную экосистему плагинов, Voice Mode и глубокую интеграцию сторонних приложений. Для таких пользователей переключение — не просто «скачать новое приложение», а заново научить AI, который вас не знает, с нуля понять, кто вы. Накопление памяти — одна из главных причин, почему они продолжают пользоваться этим AI.
Исследования Anthropic показывают, что сценарии использования Claude очень сосредоточены. 34% — программирование и математика, это самый крупный сегмент, за ним идут образование и научные исследования, которые за последний год выросли быстрее всего. Основные пользователи — разработчики, исследователи и активные писатели. Эти люди более рациональны, их легче заменить инструментом при ясной ценностной оценке, если стоимость переноса минимальна.
Инструмент переноса памяти снижает этот барьер до минимума. В то же время, Anthropic объявила о полном открытии функции памяти для бесплатных пользователей, ранее она была доступна только по подписке.
Но часть новых пользователей — это не те, на кого изначально ориентировался Claude.
По отзывам в соцсетях, многие обычные пользователи, перешедшие с ChatGPT, при первом использовании Claude часто говорят: «Он другой». Некоторые считают, что ответы Claude глубже, он склонен возвращать их назад, а не соглашаться со всем. Другие отмечают, что в писательстве он чище, но не умеет генерировать картинки и не имеет такой интерактивности, как Voice Mode.
Некоторые искали «более послушную замену ChatGPT», но обнаружили, что у Claude более яркая личность, и адаптация к нему требует времени. Статья в TechRadar с руководством по миграции за последние дни была широко распространена, с заголовком «Хотел бы, чтобы мне об этом кто-то рассказал раньше». Основная идея — логика использования Claude и ChatGPT кардинально различна: первый больше похож на позиционированного коллегу с собственным мнением, второй — на универсального помощника.
Эти различия изначально были частью позиционирования двух продуктов, но в этот раз они были неожиданно усилены. Пользователи, пришедшие из-за моральных позиций, обнаружили продукт, который отличается от их ожиданий — более требовательный, с границами. Это могло стать причиной ухода, но в этот особый момент это стало причиной остаться: если вы верите в позицию компании, вам проще принять её логику.
Через несколько дней после запуска Anthropic опубликовала данные: активных бесплатных пользователей стало на 60% больше по сравнению с январем, ежедневных регистраций — в четыре раза больше. Claude временно вышел из строя из-за перегрузки, тысячи пользователей сообщили о невозможности войти, и через несколько часов проблема была решена.
Три слова в контракте: что сказала и сделала OpenAI
Anthropic — первая коммерческая компания, которая развернула AI-модель в секретной сети американской армии, сотрудничество осуществлено через Palantir, стоимость контракта — около 200 миллионов долларов. Но за последние несколько месяцев отношения между ними ухудшились. Основной спор — пункт: Пентагон требует, чтобы AI-модели были открыты для «всех законных целей» без каких-либо условий. Anthropic настаивает, что в контракте должны быть исключения: не использовать для массового слежения за гражданами США и не применять в полностью автономных оружейных системах.
Около 20 февраля, по сообщениям, один из руководителей Anthropic поинтересовался у партнера Palantir о способах использования Claude в операции по задержанию в январе венесуэльского президента Мадуро, вызвав этим сильное недовольство военных. В четверг Пентагон вынес ультиматум, требуя, чтобы Дарио Амодей (Dario Amodei) до 17:00 того же дня дал ответ.
Амодей до истечения срока опубликовал заявление, в котором заявил, что компания не может принять текущие условия, «не потому, что мы против военного использования, а потому, что в некоторых случаях считаем, что AI может разрушить, а не защищать демократические ценности». В тот же день Трамп объявил о полном прекращении использования продуктов Anthropic в федеральных структурах в течение шести месяцев, а Хегсетх (Hegseth) включил их в список «рисков для безопасности цепочки поставок», что обычно применяют к иностранным противникам. Контракт был расторгнут.
На освободившееся место быстро нашли замену. В тот же вечер OpenAI объявила о подписании контракта с Пентагоном. Внутри компании Отман в четверг написал внутреннее письмо, в котором ясно выразил позицию: это — «проблема всей индустрии». Он заявил, что OpenAI и Anthropic придерживаются одних и тех же «красных линий»: противостоять массовому слежению и автономным оружиям. В пятницу было достигнуто соглашение, модели будут развернуты в секретной сети армии, ограничены только облачным запуском, с постоянным контролем инженеров, и в контракте прописаны те же два ограничения.
Позже Отман в X начал отвечать на вопросы, отвечая несколько часов. Его спросили: почему Пентагон принял OpenAI, а запретил Anthropic? Он ответил: «Anthropic кажется более сосредоточенной на конкретных запретах в контракте, а не на цитировании применимых законов, и нам нравится, что они ссылаются на законы».
Эта фраза — о различиях в подходах, но именно она открыла истинную суть спора.
Ключ к провалу переговоров с Anthropic — это фраза, которую Пентагон настаивал включить: что AI-системы могут использоваться «для всех законных целей». Anthropic отказалась, потому что в контексте национальной безопасности эта формулировка не является жестким ограничением. Законодательство во многих аспектах еще не успело за развитием AI, и «законность» будет определяться интерпретацией правительства. OpenAI согласилась с этим пунктом, заявив, что в контракте прописаны такие же меры защиты.
Юридические эксперты проанализировали опубликованные OpenAI условия контракта и указали на две конкретные проблемы в формулировках.
Первое — пункт о слежке: там говорится, что система не должна использоваться для «неограниченного» (unconstrained) слежения за личной информацией граждан США. Заместитель директора Центра демократии и технологий Самир Джайн (Samir Jain) отметил, что эта формулировка подразумевает, что разрешена версия с «ограниченной» слежкой. В рамках существующего законодательства государство вполне может легально покупать у данных брокеров информацию о местоположении граждан, их истории просмотров и финансовых данных, а затем анализировать их с помощью AI, что технически не считается «незаконным слежением». В интервью CBS Амодей привел именно этот пример.
Второе — пункт о вооружениях: там говорится, что система не должна использоваться для автономных вооружений «при соблюдении законов, правил или требований департамента, требующих человеческого контроля». Это ограничение подразумевает, что оно действует только в тех случаях, когда уже есть требования к человеческому контролю, и полностью опирается на существующую политику. Но у Пентагона есть право в любой момент менять внутренние правила. Юрист Чарльз Буллок (Charles Bullock) в X отметил, что пункт о вооружениях основан на инструкции DoD 3000.09, которая требует, чтобы командиры сохраняли «достаточный уровень человеческого суждения», а этот «достаточный уровень» — стандарт, который можно интерпретировать гибко.
Ответ OpenAI на эти сомнения — модель работает только в облаке, что исключает возможность прямого внедрения в оружейные системы. В контракте также прописаны конкретные правовые основания, которые более надежны, чем просто запреты в тексте, поскольку основаны на проверенной правовой базе. Отман в ответах признал: «Если в будущем нам придется участвовать в войне, мы это сделаем, но это — риск для нас».
Это не вопрос компромисса двух компаний — одна идет на уступки, другая придерживается принципов, — а принципиально разные подходы к безопасности. В основе OpenAI — «я не буду делать незаконное», у Anthropic — «если закон еще не запретил, но я считаю, что не стоит делать, — я тоже не буду».
Это различие даже породило внутренние трещины в OpenAI. На прошлой неделе несколько сотрудников подписали открытое письмо в поддержку позиции Anthropic, выступая против включения их в список рисков цепочки поставок. Исследователь Leo Gao публично усомнился в том, что контракт компании обеспечивает достаточную защиту. На тротуаре у офиса OpenAI в Сан-Франциско появились граффити с критикой, нарисованные мелом. В офисе Anthropic — поддерживающие сообщения. Многосуточный ответ Отмана в X был в значительной степени адресован внутренней аудитории, которая изначально поддерживала Anthropic.
Два результата одной и той же истории
Много лет Anthropic использует концепцию «предотвращения цивилизационных рисков», сравнивая потенциальные угрозы передовым AI с ядерным оружием, позиционируя себя как страж этой границы. Эта нарратив — ядро их бренда и способ завоевания доверия на рынке.
Во время разгара скандала технологический обозреватель Пакки МакКормик процитировал концепцию Бена Томпсона: «Налог на хайп» (Hype Tax). Идея в том, что если ты строишь влияние на экстремальной нарративе, то когда эта нарратив сталкивается с реальной властью, за нее приходится платить. Ты сравниваешь AI с ядерным оружием — и правительство начнет с тобой обращаться так же.
Anthropic заплатила цену за этот нарратив: потеряла контракт, оказалась в списке рисков, президент назвал их угрозой, все продукты требуют в течение шести месяцев исключить из федеральных систем.
Но в тот же уикенд, в другом измерении, эта же нарратив дала совершенно противоположный эффект.
Обычные пользователи не видели контрактов, юридических объяснений или дебатов о безопасности. Они увидели: одна компания говорит «нет», ее исключают, а другая — «да», контракт получен. Они приняли решение исходя из своих собственных критериев, скачали на 295% больше, заняли первое место в App Store, и серверы упали.
Это — редкий случай коллективного морального заявления потребителей в истории AI-индустрии.
Anthropic не потратила ни копейки на PR-кампанию по этому поводу. Заявление Амодея было сдержанным, он не призывал поддерживать их, не называл OpenAI, не изображал себя мучеником. Но результат все равно произошел.
Здесь есть важный нюанс: событие, которое привело к массовому переходу пользователей к Claude, по сути, — это полностью коммерческое решение OpenAI, которое в условиях конкуренции и при отсутствии контракта было вполне логичным — подписать соглашение и заявить, что обсуждались одинаковые меры защиты. Отман также ясно сказал, что его действия были частью попытки снизить напряженность и не допустить дальнейших ударов по Anthropic.
Как бы ни было, итог — OpenAI получил контракт, а пользователи Anthropic выросли. У обеих сторон есть свои потери и выгоды, только в разных измерениях.
И есть еще один важный момент.
Потерянный контракт Anthropic с Пентагоном — около 200 миллионов долларов.
Текущий годовой доход Anthropic — около 14 миллиардов долларов. План — достичь 26 миллиардов к 2026 году.
В прошлом месяце Anthropic завершила раунд финансирования на 30 миллиардов долларов, оценка компании — 380 миллиардов долларов.
Эти цифры легко подсчитать. Но есть еще один вопрос без ответа: когда AI действительно начнут широко использовать в военных решениях, смогут ли «технические ограничения» и инженеры, которых прописали в контрактах, реально контролировать ситуацию — как у OpenAI, так и у Anthropic, — и смогут ли они обеспечить безопасность?
Этот вопрос — вне рамок уже существующих контрактов и публичных документов.