Adsrekt

vip
Antigüedad 0.6 años
Nivel máximo 0
Aún no hay contenido
Codex funcionando mal hoy
GPT 5.4 sobrecargó los servidores
¿Soy el único con este problema?
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
alguien logró poner en marcha un modelo de voz en un Apple Watch.
no es una demo de juguete. granite 4.0 1B de voz acaba de quedar en PRIMER lugar en la tabla de clasificación de OpenASR.
esto es lo sorprendente:
• 1B de parámetros - la mitad del tamaño de granite 3.3 2B
• mayor precisión en transcripciones en inglés que el modelo más grande
• decodificación especulativa para inferencia más rápida en hardware diminuto
• 6 idiomas - inglés, francés, alemán, español, portugués, japonés
• sesgo en la lista de palabras clave para que realmente reconozca nombres y siglas correctamente
la parte de l
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
openai escaneó 1.2 MILLONES de commits en 30 días
encontraron 10,561 errores de alta gravedad. 792 críticos.
en proyectos de los que probablemente dependes ahora mismo
openssh. gnutls. chromium. libssh. PHP.
estos no son repositorios de hobby. son las bases sobre las que se apoya toda tu pila. y los humanos han pasado por alto estas cosas durante años
la seguridad de codex no solo detecta ruido como si tu linter tuviera un ataque de pánico. construye contexto en todo el proyecto, valida el hallazgo, y luego propone la solución real
esa es la diferencia entre "aquí tienes 4000 advertencias que
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Mis límites de Codex han sido actualizados por quinta vez esta semana
¿Alguna noticia?
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Has enviado 5 demos pulidos. No tienes USUARIOS. El problema no fue el producto.
fue el marketing.
Lo sé porque construí fcksmm después de mirar una caja de redacción en blanco durante meses mientras mis proyectos acumulaban polvo.
> "si construyo algo lo suficientemente bueno, la gente lo encontrará"
Esa es la mentira más cara en la comunidad de construir en público. Los buenos productos mueren en silencios todos los días.
El marketing no es performativo. es ingeniería de distribución. es parte del stack, igual que tu base de datos y tu capa de autenticación.
No enviarías sin manejo de errore
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
openai lanzó GPT-5.4 Pro con CERO evaluaciones de seguridad
sin tarjeta de sistema. sin evaluación de riesgo pública. nada.
esto probablemente sea el mejor modelo en el mundo en este momento para investigación y desarrollo en biología, orquestación de operaciones ciberofensivas y uso autónomo de computadoras - y lo lanzaron como una nota de parche
esto no es la primera vez tampoco. GPT-5.2 Pro siguió el mismo patrón. lanzamiento silencioso, sin documentación, sin revisión externa. ya han hecho esto antes y nadie los responsabilizó, así que lo volvieron a hacer
openai ahora está lanzando modelo
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
GPT 5.4 CONSEJOS
deja de habilitar la ventana de contexto de 1 millón. no está lista. es teatro de UX y está quemando tus construcciones vivas
probé el nuevo modelo en 3 de mis propios proyectos. a fondo. no es solo una comprobación de vibe, trabajo de producción real
esto es lo que nadie te está diciendo:
la comprensión de tareas abstractas mejoró SIGNIFICANTEMENTE. el modelo finalmente entiende lo que estás intentando hacer antes de que detalles cada paso
pero esa ventana de contexto de 1 millón de la que todos están hypeados? NO LA TOQUES. está a medio cocinar. mete tu contexto en la carpet
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
deja de construir tu IDEA. empieza con tu GTM.
este año lancé 3 herramientas. las que alcanzaron $5k MRR tenían una cosa en común: sabía de dónde venía el tráfico ANTES de escribir la línea 1 de código.
las que fracasaron tenían mejor arquitectura.
ahora mismo estás sentado sobre 5 demos pulidas. CERO usuarios. cero MRR. y todavía estás ajustando el ciclo del agente en lugar de hacer una pregunta - de dónde vienen mis primeros 50 usuarios.
no es tu idea. no es tu pila tecnológica. no es tu marco de múltiples agentes.
tu startup vive o muere por la distribución.
haz una auditoría de recursos ah
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
nuevo gpt 5.4 se siente increíble
>gpt 5.3 codex describió sus acciones en detalle, pero finalmente produjo un código terrible
>gpt 5.2 no describió nada en absoluto, pero funcionó mejor
>5.4 - combinó estas ventajas
¿gpt 5.4 u Opus 4.6 ahora?
Ver originales
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
gpt-5.4 está en camino y el 80% de la COMPUTE se destinará a asegurarse de que no hiera tus sentimientos, mientras que el otro 20% intenta recordar cómo razonar
Ver originales
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
tu agente de IA tiene acceso root completo en este momento
un comando alucinatorio es todo lo que se necesita
> sudo rm -rf /
eso no es teórico
los bucles agenticos generan comandos de shell a partir de ventanas de contexto que no controlas. el modelo no necesita ser MALICIOSO.
solo necesita estar equivocado una vez.
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
tu teléfono sabe más de ti que tu esposa.
un burner pagado con criptomonedas no tiene historial, no tiene identidad, no tiene correa.
sin selfie de verificación. sin banco vinculado. sin ansiedad a las 3 a.m. sobre qué exchange acaba de ser citado a comparecer.
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
el mito de que python "maneja la memoria por ti" es la razón por la cual tus agentes se quedan sin memoria (OOM) a las 4 horas de tiempo de actividad
ejecuté 24 multi-agentes en paralelo el mes pasado, consumiendo 10 veces más tokens que una sola sesión sin obtener ninguna salida útil
el verdadero problema no eran los tokens, sino la memoria que nadie estaba supervisando
python usa conteo de referencias más un recolector de basura cíclico. suena bien hasta que cargas arrays de numpy a través de extensiones en C que no decrementan las referencias correctamente. esos objetos NUNCA se recolectan.
Ver originales
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
tu IA es una CAJA NEGRA y por eso va a vaciar tu billetera
la interpretabilidad mecanicista es cómo abrir un LLM y mapear los circuitos reales dentro de él
no es prueba de vibras
no es "parece que funciona"
trazado real a nivel de neurona de cómo el modelo implementa la lógica
ahora mismo el 96% del tráfico que llega a tus endpoints son bots leyendo HTML en crudo
tu modelo está tomando decisiones que no puedes auditar, rastrear ni explicar
y estás permitiéndole tener las llaves del capital real
los equipos de seguridad de IA corporativa no entienden cómo funcionan sus propios modelos
los envue
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
La tasa de ingresos de Anthropic acaba de alcanzar $20 MIL MILLONES
>$9 mil millones proyectados para fines de 2025
>$14 mil millones hace unas semanas
>$19 mil millones ahora
agregaron $5 mil millones en SEMANAS
eso no es crecimiento, es adopción empresarial a una velocidad que no tiene sentido a menos que contratos masivos de API estén llegando simultáneamente.
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Ejecuté 24 sesiones de múltiples agentes en codex al mismo tiempo
¿qué demonios, openai?
10 veces los tokens de una sola pestaña
la salida fue CERO mejora respecto a un solo prompt enfocado
> "comportamiento emergente de la colaboración entre agentes"
sí, lo que emergió fue mi factura
estás pagando por agentes que se hablan entre sí, no por producir algo
el agente A resume para el agente B que reformatea para el agente C que lo pasa al agente D que produce el mismo json que podrías haber obtenido de un solo prompt limpio en 14 segundos
eso no es arquitectura, eso es un TEATRO de computación
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Encendí 24 multi-agentes en codex al mismo tiempo
Es HORRIBLE
24 agentes corriendo en paralelo consumiendo 10 veces más tokens que una sola sesión y produciendo absolutamente nada que no pudieras obtener con una pestaña y un prompt claro
esto no es un marco de agentes. esto es un horno de tokens con un spinner de carga
OpenAI lanzó una función que parece el futuro si la miras de reojo, pero en cuanto intentas construir algo con ella te das cuenta de que cada agente solo está reiterando el mismo contexto una y otra vez, consumiendo tu presupuesto vivo
"iT's JuSt EaRlY" - genial, así que estoy p
Ver originales
post-image
  • Recompensa
  • 1
  • Republicar
  • Compartir
ybaservip:
Hacia La Luna 🌕
OpenClaw ¿INÚTIL?
No quería escribir nada sobre openclaw sin haberlo usado primero
así que lo usé. lo construí con él. probé flujos de trabajo. le di tiempo honesto
aquí está la reseña honesta que nadie pidió
ahora mismo toda la escena alrededor de los agentes de IA se siente como una competencia de chat grupal entre amigos. quién tiene el agente que suena más genial. quién tiene la demo más elegante. quién obtiene más me gusta en la captura de pantalla
pero cuando te sientas y tratas de SIMPLIFICAR algo con openclaw - reemplazar un paso en tu flujo de trabajo o eliminar un proceso manual - no
Ver originales
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
la mayoría de la gente que habla de agentes de IA nunca ha construido uno
aquí está la arquitectura actual
agente de llamada a herramientas = cerebro llm + registro de funciones + ciclo de ejecución
defines las herramientas como esquemas estructurados. el modelo elige qué herramienta llamar y pasa los argumentos. tu entorno de ejecución lo ejecuta y devuelve el resultado
ese es todo el ciclo. sin magia
frameworks modernos como langchain o llamadas a funciones de openai manejan el enrutamiento. plataformas de ml en la nube como vertex o bedrock manejan la escalabilidad de inferencias para que n
Ver originales
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
  • Anclado