A Google lançou a funcionalidade Webhooks na Gemini API a 4 de maio, resolvendo as dores sentidas pelos programadores com tarefas longas (long-running jobs). No blogue oficial, a Google explica que os Webhooks são um mecanismo de notificações push orientadas a eventos: os programadores já não precisam de usar polling para continuar a perguntar à Gemini API o estado de uma tarefa — quando a API termina, envia proactivamente o resultado para o endpoint indicado pelo programador. Logan Kilpatrick, responsável pelas relações com developers de IA na Google ( @OfficialLoganK ), afirmou no X que se trata de um “passo importante para o DevX de tarefas longas”.
Resolução de que problema: custo de polling em batch, geração de vídeo e long reasoning
No passado, quando os developers da Gemini API lidavam com batch (processamento em lotes), geração de vídeo (Veo 2) e tarefas de long reasoning, tinham de chamar uma vez, de alguns em alguns segundos, um endpoint de status para confirmar o progresso da tarefa. Este modelo é pouco ideal em três frentes: consumo de recursos, quotas de API e latência.
Desperdício de recursos—muitas chamadas de status sem significado, ocupando quota de API
Latência imprevisível—intervalos de polling demasiado curtos que queimam quota; demasiado longos e a descoberta do resultado fica atrasada
Código complexo—necessidade de escrever no cliente máquinas de estados para fazer polling de múltiplas tarefas em paralelo
Os Webhooks invertem este padrão: os programadores registam uma callback URL; quando a Gemini API conclui uma tarefa, faz um POST proactivo do resultado para essa URL; por fim, o cliente apenas tem de tratar a notificação recebida.
Cenários de aplicação: Batch API, vídeo Veo 2, inferência de long context
Os Webhooks agora lançados aplicam-se principalmente a três tipos de tarefas assíncronas:
Batch API—endpoint de processamento em lotes da Gemini, para grandes volumes de texto, embeddings vetoriais e tarefas de classificação; preço com 50% de desconto disponibilizado oficialmente; objetivo de resposta em 24 horas; na prática, geralmente concluído em poucas horas
Geração de vídeo (Veo 2)—a geração de um único vídeo demora minutos; no passado, os developers tinham de fazer polling sem parar
Inferência de long context—análise de documentos longos com mais de 1M tokens; o processamento interno na Gemini pode levar de dezenas de segundos a vários minutos
Para implementação pelos developers, depois de registar um webhook, o cliente pode “lançar a tarefa e esquecê-la”; quando o resultado estiver pronto, naturalmente será notificado pela Gemini. Este modelo é especialmente adequado a arquiteturas sem servidor (serverless), em que o backend só é ativado quando chega um evento, sem necessidade de manter processos de polling.
Alinhamento com OpenAI e Anthropic: quem faz primeiro, quem faz depois
Progresso de long task webhook nas três principais plataformas de IA:
Google Gemini: Webhooks lançados a 4 de maio (neste caso), cobrindo batch, vídeo e long reasoning
OpenAI: long tasks como Codex e Sora 2 dependem atualmente sobretudo de SSE (Server-Sent Events) em streaming; tarefas em batch têm um endpoint independente, mas sem webhook nativo
Anthropic: a API da Claude ainda não tem webhook nativo; o Claude Code usa um mecanismo de polling para tratar tarefas longas
Na linha do DevX (developer experience), a Google aumentou claramente o investimento nos últimos 12 meses — desde o 1M context do Gemini 2.5 Pro, o desenvolvimento visual no AI Studio, o Agent Designer e o Memory Bank lançados no Cloud Next 2026, até aos Webhooks agora anunciados. Em comparação com a prioridade da OpenAI para “produtos de consumo direto” (ChatGPT, Operator), a Google segue a via “infraestrutura empresarial/de developers”. Os Webhooks são uma peça concreta desta via.
O que observar a seguir: mecanismos de segurança do webhook e âmbito de modelos
Os principais pontos a observar na próxima fase:
Mecanismos de segurança do Webhook—se a Gemini fornece validação de assinatura HMAC, evitando ataques falsificando pedidos para sobrecarregar a callback URL
Expansão do âmbito de modelos—atualmente cobre batch, Veo 2 e long reasoning; e no futuro suportará também geração de imagens Imagen, Speech-to-Speech e se o Gemini Live terá suporte em conjunto
Resposta da OpenAI e da Anthropic—quando a Google levar o DevX a este nível, os concorrentes vão acompanhar
Para a prática de developers em Taiwan, se estiveres a usar a Gemini API para tarefas batch (por exemplo, classificação de dados de clientes em lotes, resumo de documentos), os Webhooks são uma funcionalidade que vale a pena integrar já, podendo reduzir bastante o consumo de quota de API e a complexidade do sistema.
Este artigo “Gemini API 推 Webhooks:Google 解決長任務輪詢痛點、Batch/Veo 可即時推送” apareceu pela primeira vez em 鏈新聞 ABMedia.
Related Articles
Jensen Huang refuta a teoria do “apocalipse da IA”: o futuro irá criar grandes oportunidades de emprego emergente
A OpenAI acelera o telemóvel do agente de IA até ao H1 de 2027, a MediaTek prepara um acordo exclusivo para o processador
Sierra angaria 950 milhões de dólares, avaliação de 15,8 mil milhões: Bret Taylor, em conjunto com a presidência da OpenAI, assume a liderança na corrida ao principal fornecedor de atendimento ao cliente por IA
Krutrim muda-se para serviços de cloud de IA a 5 de maio, publica os primeiros lucros à medida que a receita do ano fiscal 26 atinge 31,6 milhões de dólares