Análisis de Berkeley GEPA: la IA puede aprender nuevas tareas sin actualizar los pesos, 35 veces menos coste de entrenamiento que con RL

El equipo de investigación de la Universidad de California en Berkeley propuso un nuevo método de entrenamiento de IA: GEPA. Ya fue aceptado por ICLR 2026 como paper Oral. GEPA no actualiza los pesos del modelo ni requiere entrenamiento con GPU: solo utiliza un LLM que “lee los registros de entrenamiento” para reescribir repetidamente las instrucciones del sistema de un sistema de IA. Así, en 6 tareas promedia ganar al enfoque de aprendizaje por refuerzo dominante GRPO en un 6%, con una victoria máxima del 20%, y requiere 35 veces menos intentos de entrenamiento (rollouts). Tras ser organizada por la comunidad de ingeniería de IA y difundida, generó debates en la plataforma X; ahora ya se integró en DSPy como un optimizador de primera clase.

Qué hace GEPA: convertir los registros de entrenamiento en material didáctico, no solo mirar puntuaciones

El flujo de trabajo de los métodos tradicionales de aprendizaje por refuerzo (como GRPO) es: hacer que la IA ejecute una tarea una vez, asignar una puntuación “+1 o -1” según el resultado, y luego usar esa puntuación para ajustar de forma iterativa los pesos del modelo. El problema es que el proceso de ejecutar la tarea una vez suele incluir pasos de razonamiento de miles de tokens, llamadas a herramientas y mensajes de error; todos esos detalles ricos se comprimen en una sola puntuación y se pierde la información del proceso. Por eso, el RL necesita ejecutarse decenas de miles de veces para converger.

El enfoque de GEPA es lo contrario: después de que la IA termina una tarea, la entrega íntegra (reasoning, llamadas a herramientas, registros de fallos) a otro “LLM de reflexión” para que lo lea. El LLM de reflexión actúa como un ingeniero sénior que interpreta logs de código: identifica en qué paso ocurrió el error, por qué ocurrió y cómo se debería modificar el prompt; luego reescribe directamente el prompt del módulo correspondiente. Con la misma cantidad de ejecuciones de tareas, la cantidad de señal que GEPA extrae es mucho mayor que la puntuación única del RL.

Por qué puede ganar: pasar de “calificar” a “leer todo el proceso”

GEPA gana en 6 tareas en promedio a GRPO en un 6%, y su mayor ventaja llega al 20%; además, frente a otro optimizador de prompts dominante, MIPROv2, también supera en más de 10% (mejora del 12% en el benchmark de matemáticas AIME-2025). Lo más importante es el costo de entrenamiento: GEPA requiere 35 veces menos rollouts (una ejecución completa de la tarea) para alcanzar un rendimiento equivalente.

Otro dato es que, tras integrar GEPA con DSPy, el “Full Program Adapter” puede optimizar todo el programa de DSPy (incluyendo signature, módulos y flujo de control). En el benchmark de MATH logra un 93% de precisión, superando ampliamente el estilo ChainOfThought de DSPy original, que queda en 67%. GEPA también se desempeña especialmente bien en flujos de trabajo multi-module (agentes de IA que encadenan múltiples módulos): puede apuntar con precisión al módulo que falla y reescribir su prompt, en lugar de ajustar todo el sistema.

Quién lo adoptará primero: DSPy como ciudadano de primera clase; GitHub ya lo publicó como open source

El código de GEPA se publicó en GitHub, e integra el framework de DSPy en la forma de dspy.GEPA; también se lanzó de forma independiente como una librería de Python. El equipo de investigación colabora entre UC Berkeley, Stanford, Notre Dame, Anthropic y otras instituciones. Los autores del paper incluyen Matei Zaharia (cofundador de Databricks y autor principal de DSPy) y Omar Khattab (autor principal de DSPy).

Para la comunidad de desarrolladores, GEPA ofrece una nueva solución para “tener una gran cantidad de rollouts pero no saber cómo aprovecharlos”: la mayoría de los equipos ya han acumulado miles de registros de ejecución de agentes, pero además de revisar algunas muestras para corregir bugs cuando algo falla, no existe un método sistemático para convertir esos registros en mejoras del modelo. El siguiente punto a observar es la adopción real de GEPA en entornos empresariales agentic (como automatización de atención al cliente o reparación automática de programas), y si aparecerán implementaciones equivalentes de GEPA que no dependan del marco DSPy.

Este artículo “Berkeley GEPA解析:不更新权重就能让 AI 学会新任務、35 倍少訓練成本勝 RL” apareció primero en la cuenta de cadena de noticias ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Antimatter lanza un plan de centro de datos de IA con €300M de financiación

Antimatter, una empresa de infraestructura en la nube con sede en Francia para cargas de trabajo de IA, se lanzó el 4 de mayo al combinar tres empresas existentes: Datafactory, Policloud y Hivenet. La compañía está recaudando 300 millones de euros (351 millones de USD) para implementar 100 unidades de micro centros de datos en 2026 para la inferencia de IA

CryptoFrontierhace1h

El Ministerio de Educación «館館有 AI»: bibliotecas gratuitas para usar ChatGPT y Claude. Ver de una vez tiempo y lugar aplicables

El Ministerio de Educación impulsa «bibliotecas con IA», y a partir del cuarto trimestre de este año se instalarán en cada una de las bibliotecas nacionales, como la Biblioteca Nacional de Taiwán, 5 computadoras de IA por biblioteca. La población podrá usar de forma gratuita herramientas como ChatGPT, Claude, Gemini y otras con solo su carnet de préstamo, reduciendo así la brecha del acceso a la IA de pago, y ampliándolo a 47 bibliotecas universitarias nacionales. Los fondos provendrán de la autofinanciación de las escuelas o de la solicitud de subvenciones; al mismo tiempo, se deben superar desafíos como horarios de uso, gestión de cuentas, privacidad y licencias.

ChainNewsAbmediahace2h

Economía de los modelos virtuales impulsados por IA: Aitana, Emily y análisis de 4 sistemas Markdown

Las modelos virtuales de IA pasaron de ser un experimento temático a convertirse en una entidad comercial real que, en 18 meses, maduró rápidamente todo el stack tecnológico. Este artículo reúne tres casos típicos: Aitana López, de The Clueless (Barcelona, ingresos mensuales de €10.000), Emily Pellegrini, creada por un autor anónimo (ingresos de alrededor de 10.000 USD por semana), y el caso de “Maya” que recientemente se difundió en la plataforma X: se dice que un estudiante de Texas montó una personalidad virtual de IA con 4 archivos markdown y logró unos ingresos de 43.000 USD en su primer mes en la cuenta de OnlyFans. Aitana López: la modelo virtual propia de The Clueless, con un máximo de €10.000 al mes Aitana López es una

ChainNewsAbmediahace5h

TipTip alcanza la rentabilidad por EBITDA a medida que la IA impulsa la venta de entradas para entretenimiento

La plataforma indonesia de entretenimiento y experiencias TipTip anunció el 4 de mayo que logró la rentabilidad a nivel de toda la empresa en EBITDA a principios de 2026, impulsada por el control de costos, la mejora de la economía unitaria y la asociación con el inversor principal East Ventures. Crecimiento de la venta de entradas de entretenimiento El crecimiento de entradas de entretenimiento de TipTip t

CryptoFrontierhace7h

El cofundador de Astro abre el código de Rosie: sincroniza habilidades entre 10 agentes de codificación con IA

Según Beating, Matthew Phillips, cofundador del framework Astro para frontend, ha hecho open-source Rosie, una herramienta de línea de comandos para gestionar paquetes de habilidades de agentes de IA. La herramienta detecta automáticamente agentes de codificación instalados localmente y sincroniza habilidades en 10 plataformas, incluyendo Claude

GateNewshace10h

Particle Network publica una hoja de ruta de Cuentas Universales, lanza el Universal Deposit SDK y cuentas de agentes de IA

Según ChainCatcher, Particle Network hoy publicó la hoja de ruta de la siguiente fase para Universal Accounts, presentando dos nuevos productos en los próximos meses: Universal Deposit SDK, que permite a los desarrolladores añadir depósitos multi-cadena con aproximadamente 10 líneas de código, y Universal Agent Accounts,

GateNews05-03 10:11
Comentar
0/400
Sin comentarios