Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
0G Labs Сообщает о прорыве децентрализованного ИИ на 107B, подчеркивая экономичное обучение и планы с открытым исходным кодом
Кратко
0G Labs сообщил о тренировке модели DiLoCoX с 107 миллиардами параметров — больше системы Bittensor — с использованием экономически эффективного децентрализованного подхода, а также начал открытое повторное обучение с полной прозрачностью и запланированным выпуском с открытым исходным кодом.
Модель, известная как DiLoCoX-107B, была обучена в июле 2025 года с использованием технологий, разработанных в партнерстве с China Mobile, крупнейшим в мире оператором мобильной связи. Согласно рецензируемым исследованиям, опубликованным на arXiv, система достигла уровня эффективности коммуникации в 357 раз выше, чем традиционные методы AllReduce при работе через стандартное интернет-соединение 1 Гбит/с, что говорит о возможности обучения передового ИИ без необходимости дорогостоящей инфраструктуры дата-центров.
Первые результаты обучения показали, что распределённые вычислительные архитектуры могут конкурировать с централизованными подходами на самых высоких уровнях разработки моделей. В то время как компании такие как OpenAI, Google и Meta активно инвестируют в крупномасштабные GPU-кластеры, 0G Labs заявил, что его распределённая система может снизить затраты примерно на 95 процентов, исходя из данных, приведённых Forbes. Система работает на децентрализованных узлах, соединённых через широко доступную интернет-инфраструктуру.
Для сравнения, модель Covenant-72B от Bittensor, разработанная на сети Subnet 3 группой участников, считается значительным достижением в области децентрализованного ИИ. Однако 0G Labs отметил, что его ранние работы уже продемонстрировали возможность обучения моделей большего масштаба, подтверждённую рецензируемой проверкой.
Компания также объявила о начале нового этапа — публичного повторного обучения DiLoCoX-107B, с акцентом на прозрачность и стратегию выпуска с открытым исходным кодом. Эта инициатива направлена на установление более ясных стандартов для проверяемых практик разработки ИИ.
Полноценная инфраструктура для проверяемого ИИ
В отличие от систем, созданных преимущественно для экспериментальных целей, DiLoCoX-107B интегрирована в более широкую блокчейн-инфраструктуру, предназначенную для агентов ИИ. В неё входит готовый к использованию стек, включающий совместимую с EVM базовую блокчейн-сеть, децентрализованные вычислительные ресурсы, распределённое хранилище и высокопроизводительный слой доступности данных, который значительно быстрее и дешевле аналогичных решений, таких как Ethereum.
Компания заявила, что такая инфраструктура предназначена не только для обучения моделей, но и для проверяемого вывода, безопасного хранения и ончейн-расчётов, что отражает более широкие операционные требования экосистемы агентов ИИ.
Система использует несколько технических подходов, включая конвейерный параллелизм, координацию двойных оптимизаторов между локальными и глобальными обновлениями, задержку синхронизации для непрерывного обучения и адаптивное сжатие градиентов для снижения коммуникационных затрат при сохранении точности работы.
0G Labs сообщил, что процесс повторного обучения в настоящее время продолжается, и все соответствующие данные, методики и результаты будут раскрыты в ходе его реализации. Окончательная модель будет выпущена под лицензией с открытым исходным кодом с полным доступом к артефактам обучения.