Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
2025年,机器人领域教给我的3件事 @DrJimFan
1⃣️El hardware va por delante del software, pero la fiabilidad del hardware limita gravemente la velocidad de iteración del software. Ya hemos visto obras maestras de ingeniería extremadamente ingeniosas: Optimus, e-Atlas, Figure, Neo, G1, etc. Pero el problema es que nuestra mejor IA aún no ha explotado todo el potencial de estos hardware de vanguardia. La capacidad del cuerpo (del robot), claramente supera las instrucciones que puede emitir el cerebro en la actualidad. Sin embargo, para “servir” a estos robots, a menudo se necesita un equipo completo de operaciones y mantenimiento. Los robots no se autoreparan como los humanos: sobrecalentamiento, fallos en los motores, problemas extraños en el firmware, casi un pesadilla diaria. Una vez que ocurre un error, es irreversible y no tolerante. Lo que realmente se escala, es mi paciencia.
2⃣️La prueba de referencia en el campo de los robots sigue siendo una catástrofe épica. En el mundo de los modelos grandes, todos saben qué es MMLU, SWE-Bench. Pero en el campo de los robots no hay consenso: ¿qué hardware usar, cómo definir las tareas, cuáles son los estándares de puntuación, qué simulador usar, o directamente en el mundo real? Por definición, todos son SOTA — porque cada vez que se publica una noticia, se define un nuevo benchmark de forma provisional. Cada uno selecciona el mejor demo entre 100 fracasos. Para 2026, nuestro campo debe hacerlo mejor, no podemos seguir considerando la reproducibilidad y las normas científicas como ciudadanos de segunda clase.
3⃣️La ruta VLA basada en VLM, siempre me parece un poco equivocada. VLA se refiere a Vision-Language-Action (visión-lenguaje-acción), que actualmente es el paradigma principal del cerebro de los robots. La fórmula también es muy simple: tomar un checkpoint de VLM preentrenado, y “acoplar” un módulo de acción encima. Pero al pensarlo detenidamente, se ven los problemas. VLM está esencialmente optimizado para escalar en benchmarks como preguntas y respuestas visuales, lo que trae dos consecuencias: la mayoría de los parámetros de VLM sirven para el lenguaje y el conocimiento, no para el mundo físico; el codificador visual se entrena activamente para descartar detalles de bajo nivel, porque las tareas de preguntas y respuestas solo requieren comprensión de alto nivel, pero para los robots, los detalles minúsculos son cruciales para operaciones hábiles. Por lo tanto, no hay razón para que el rendimiento de VLA aumente linealmente con el tamaño de los parámetros de VLM. El problema radica en que los objetivos de preentrenamiento no están alineados en sí mismos. #AI #Robtics