API da Gemini recebe Webhooks: a Google resolve a dor da sondagem em ciclo para tarefas longas, e o Batch/Veo pode ser enviado em tempo real

A Google lançou a funcionalidade Webhooks na Gemini API a 4 de maio, resolvendo as dores sentidas pelos programadores com tarefas longas (long-running jobs). No blogue oficial, a Google explica que os Webhooks são um mecanismo de notificações push orientadas a eventos: os programadores já não precisam de usar polling para continuar a perguntar à Gemini API o estado de uma tarefa — quando a API termina, envia proactivamente o resultado para o endpoint indicado pelo programador. Logan Kilpatrick, responsável pelas relações com developers de IA na Google ( @OfficialLoganK ), afirmou no X que se trata de um “passo importante para o DevX de tarefas longas”.

Resolução de que problema: custo de polling em batch, geração de vídeo e long reasoning

No passado, quando os developers da Gemini API lidavam com batch (processamento em lotes), geração de vídeo (Veo 2) e tarefas de long reasoning, tinham de chamar uma vez, de alguns em alguns segundos, um endpoint de status para confirmar o progresso da tarefa. Este modelo é pouco ideal em três frentes: consumo de recursos, quotas de API e latência.

Desperdício de recursos—muitas chamadas de status sem significado, ocupando quota de API

Latência imprevisível—intervalos de polling demasiado curtos que queimam quota; demasiado longos e a descoberta do resultado fica atrasada

Código complexo—necessidade de escrever no cliente máquinas de estados para fazer polling de múltiplas tarefas em paralelo

Os Webhooks invertem este padrão: os programadores registam uma callback URL; quando a Gemini API conclui uma tarefa, faz um POST proactivo do resultado para essa URL; por fim, o cliente apenas tem de tratar a notificação recebida.

Cenários de aplicação: Batch API, vídeo Veo 2, inferência de long context

Os Webhooks agora lançados aplicam-se principalmente a três tipos de tarefas assíncronas:

Batch API—endpoint de processamento em lotes da Gemini, para grandes volumes de texto, embeddings vetoriais e tarefas de classificação; preço com 50% de desconto disponibilizado oficialmente; objetivo de resposta em 24 horas; na prática, geralmente concluído em poucas horas

Geração de vídeo (Veo 2)—a geração de um único vídeo demora minutos; no passado, os developers tinham de fazer polling sem parar

Inferência de long context—análise de documentos longos com mais de 1M tokens; o processamento interno na Gemini pode levar de dezenas de segundos a vários minutos

Para implementação pelos developers, depois de registar um webhook, o cliente pode “lançar a tarefa e esquecê-la”; quando o resultado estiver pronto, naturalmente será notificado pela Gemini. Este modelo é especialmente adequado a arquiteturas sem servidor (serverless), em que o backend só é ativado quando chega um evento, sem necessidade de manter processos de polling.

Alinhamento com OpenAI e Anthropic: quem faz primeiro, quem faz depois

Progresso de long task webhook nas três principais plataformas de IA:

Google Gemini: Webhooks lançados a 4 de maio (neste caso), cobrindo batch, vídeo e long reasoning

OpenAI: long tasks como Codex e Sora 2 dependem atualmente sobretudo de SSE (Server-Sent Events) em streaming; tarefas em batch têm um endpoint independente, mas sem webhook nativo

Anthropic: a API da Claude ainda não tem webhook nativo; o Claude Code usa um mecanismo de polling para tratar tarefas longas

Na linha do DevX (developer experience), a Google aumentou claramente o investimento nos últimos 12 meses — desde o 1M context do Gemini 2.5 Pro, o desenvolvimento visual no AI Studio, o Agent Designer e o Memory Bank lançados no Cloud Next 2026, até aos Webhooks agora anunciados. Em comparação com a prioridade da OpenAI para “produtos de consumo direto” (ChatGPT, Operator), a Google segue a via “infraestrutura empresarial/de developers”. Os Webhooks são uma peça concreta desta via.

O que observar a seguir: mecanismos de segurança do webhook e âmbito de modelos

Os principais pontos a observar na próxima fase:

Mecanismos de segurança do Webhook—se a Gemini fornece validação de assinatura HMAC, evitando ataques falsificando pedidos para sobrecarregar a callback URL

Expansão do âmbito de modelos—atualmente cobre batch, Veo 2 e long reasoning; e no futuro suportará também geração de imagens Imagen, Speech-to-Speech e se o Gemini Live terá suporte em conjunto

Resposta da OpenAI e da Anthropic—quando a Google levar o DevX a este nível, os concorrentes vão acompanhar

Para a prática de developers em Taiwan, se estiveres a usar a Gemini API para tarefas batch (por exemplo, classificação de dados de clientes em lotes, resumo de documentos), os Webhooks são uma funcionalidade que vale a pena integrar já, podendo reduzir bastante o consumo de quota de API e a complexidade do sistema.

Este artigo “Gemini API 推 Webhooks:Google 解決長任務輪詢痛點、Batch/Veo 可即時推送” apareceu pela primeira vez em 鏈新聞 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Jensen Huang refuta a teoria do “apocalipse da IA”: o futuro irá criar grandes oportunidades de emprego emergente

O CEO da Nvidia, Jensen Huang, afirmou num painel global que a IA não é o fim do mundo, e considerou que a IA impulsionará a reindustrialização dos EUA e criará empregos. Ele prevê que a próxima vaga de “IA agentiva” fará a procura por GPU disparar mil vezes, exigindo novas infraestruturas industriais de base e um vasto mercado laboral. Sublinhou que a IA aumenta a produtividade, não substitui trabalhadores, e apelou a um desenvolvimento responsável e a normas de segurança transnacionais; os efeitos no emprego e na economia ainda precisam de ser acompanhados a longo prazo.

ChainNewsAbmedia36m atrás

A OpenAI acelera o telemóvel do agente de IA até ao H1 de 2027, a MediaTek prepara um acordo exclusivo para o processador

De acordo com o mais recente inquérito do analista Ming-Chi Kuo ao sector, a OpenAI está a acelerar o desenvolvimento do seu primeiro telefone com agente de IA e pretende avançar para produção em massa já em H1 2027. A MediaTek tem agora maior probabilidade de garantir uma encomenda exclusiva de processador, com o chip baseado numa versão personalizada de

GateNews39m atrás

Sierra angaria 950 milhões de dólares, avaliação de 15,8 mil milhões: Bret Taylor, em conjunto com a presidência da OpenAI, assume a liderança na corrida ao principal fornecedor de atendimento ao cliente por IA

A Sierra, cofundada por Bret Taylor, anunciou a conclusão de uma ronda Series E de 950 milhões de dólares, com uma avaliação de 15,8 mil milhões de dólares, liderada pela Tiger Global e pela GV. Em 8 trimestres, atingiu 150 milhões de dólares de ARR e uma taxa de penetração na Fortune 50 superior a 40%. Posiciona-se como uma plataforma vertical de atendimento ao cliente, centrada em agentes de IA, oferecendo fluxos de trabalho prontos a usar. Taylor é também presidente do OpenAI, com a governação e a divulgação de interesses em destaque.

ChainNewsAbmedia2h atrás

Krutrim muda-se para serviços de cloud de IA a 5 de maio, publica os primeiros lucros à medida que a receita do ano fiscal 26 atinge 31,6 milhões de dólares

De acordo com a Press Trust of India, a empresa indiana de IA Krutrim reposicionou-se, a 5 de maio, como fornecedora de serviços de nuvem de IA a nível nacional, suspendendo os seus esforços de conceção de chips e redirecionando capital e talento para a infraestrutura de nuvem. A empresa reportou uma receita no AF26 de aproximadamente 3 mil milhões de rúpias (31,6 milhões de USD

GateNews3h atrás
Comentar
0/400
Nenhum comentário