A IA generativa aumentou significativamente a velocidade de produção de informações, mas também levantou uma preocupação negligenciada: "a lacuna de verificação (Verification Gap)". Desde o ex-CTO da Coinbase, Balaji, até o co-fundador da OpenAI, Karpathy, e os gigantes de capital de risco a16z, todos alertaram: "Os custos de verificação produzidos pela IA estão se tornando o maior gargalo e risco da nova era."
Balaji: O "custo de validação" para os usuários de IA torna-se um verdadeiro gargalo.
O ex-CTO da Coinbase, Balaji, publicou no mês passado que o fluxo de uso da IA pode ser dividido em duas fases: "entrada de prompt (prompting)" e "verificação de saída (verifying)".
O primeiro é algo que qualquer pessoa pode fazer, bastando digitar algumas linhas; mas o segundo é mais difícil, requerendo conhecimento especializado, paciência e raciocínio lógico para determinar se a IA cometeu um erro ou uma "ilusão (hallucination)".
AI PROMPTING → AI VERIFICANDO
A escalas de prompting de IA, porque prompting é apenas digitar.
Mas a verificação de IA não é escalável, porque verificar a saída da IA envolve muito mais do que apenas digitar.
Às vezes, você pode verificar a olho nu, razão pela qual a IA é ótima para frontend, imagens e vídeo. Mas…
— Balaji (@balajis) 4 de junho de 2025
Ele afirmou que essa diferença é facilmente tratada em imagens ou vídeos, pois o olho humano é naturalmente bom em julgar conteúdo visual. Mas, uma vez que se depara com código, artigos técnicos ou raciocínio lógico, a verificação se torna bastante complicada:
A questão mais importante ao usar a IA é: como posso verificar o conteúdo gerado por este modelo de IA de forma econômica? Precisamos de outras ferramentas ou produtos para validar conteúdos em áreas não visuais.
Ele acrescentou: "Para os utilizadores, a validação de IA é tão importante quanto as sugestões de IA."
Karpathy: A IA acelerou a criação, mas não reduziu o processo de validação.
O cofundador da OpenAI e pai da condução autônoma, Andrej Karpathy, expandiu ainda mais o ponto de vista de Balaji, observando que a essência da criação é um processo de duas etapas que ocorre repetidamente: "geração (generation)" e "discriminação (discrimination)": "Você fez uma marca (geração), mas também precisa dar um passo para trás e pensar se essa marca realmente melhorou a obra (discriminação)."
Ele acredita que os grandes modelos de linguagem (LLM) comprimem drasticamente o custo de tempo da "geração", permitindo que os usuários obtenham uma grande produção instantaneamente, mas não ajudam em nada a reduzir o custo e a carga de trabalho do "julgamento". Isso é especialmente grave para o código:
LLM é capaz de gerar facilmente dezenas ou até centenas de linhas de código, mas os engenheiros ainda precisam ler, entender e revisar toda a lógica e potenciais erros linha por linha.
Karpathy afirmou que isso é, na verdade, a coisa que a maioria dos engenheiros gasta mais tempo, o que é conhecido como "verificação de lacuna (Verification Gap)". A IA acelerou o processo de criação, mas esse custo de tempo foi transferido diretamente para a verificação.
( Da consultoria para a secretaria, os desafios de confiança da agência de IA: podemos confiar nas decisões autônomas da inteligência artificial? )
a16z: A crise de confiança da era da geração deve ser suprida pela tecnologia de criptografia.
O conhecido fundo de capital de risco a16z aborda a questão a partir de uma perspectiva institucional e industrial, acreditando que a tecnologia de IA acelerará a proliferação de "informações falsas", uma vez que a barreira de entrada para a geração é baixa e difícil de verificar, o que fará com que a internet fique inundada de conteúdo falsificado. A a16z defende que a confiança deve ser engenharia, e a solução é a introdução de tecnologias criptográficas, como:
Realizar processamento criptográfico dos dados produzidos em fases pela IA (hashed posts)
Criar usando identidades verificadas por blockchain (crypto IDs)
Através da transparência e rastreabilidade dos dados na blockchain, cria-se uma cadeia de conteúdo com fontes confiáveis.
Estas práticas não só garantem que a informação não possa ser alterada e que possa ser verificada, mas também estabelecem uma linha de defesa para a credibilidade do conteúdo na era da IA, prometendo tornar-se uma interseção importante entre a tecnologia de criptografia e o domínio da IA.
(Análise especializada da Messari: Como o protocolo Mira utiliza um mecanismo de consenso descentralizado para tornar a IA mais honesta?)
Desde as palavras-chave até à capacidade de validação, as novas competências e exigências da era da IA já estão formadas.
Atualmente, a IA generativa traz um crescimento exponencial na capacidade produtiva de informações, mas se não houver uma capacidade de validação igualmente eficiente para acompanhar, os usuários acabarão atolados em operações demoradas e na contaminação por informações falsas.
Assim, a habilidade central na atual era da IA não é mais apenas ser capaz de escrever prompts precisos, mas sim validar de forma eficaz e de baixo custo a produção da IA. Seja através da revisão mútua de modelos de IA ou de ferramentas de verificação especializadas, isso se torna extremamente importante.
Este artigo tem a IA tornado a vida mais conveniente? Balaji e a16z discutem como reduzir o custo de tempo para validar conteúdos de IA? Apareceu pela primeira vez na Chain News ABMedia.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A IA tornou a vida mais conveniente? Balaji e A16z discutem como reduzir o custo de tempo na validação de conteúdos de IA?
A IA generativa aumentou significativamente a velocidade de produção de informações, mas também levantou uma preocupação negligenciada: "a lacuna de verificação (Verification Gap)". Desde o ex-CTO da Coinbase, Balaji, até o co-fundador da OpenAI, Karpathy, e os gigantes de capital de risco a16z, todos alertaram: "Os custos de verificação produzidos pela IA estão se tornando o maior gargalo e risco da nova era."
Balaji: O "custo de validação" para os usuários de IA torna-se um verdadeiro gargalo.
O ex-CTO da Coinbase, Balaji, publicou no mês passado que o fluxo de uso da IA pode ser dividido em duas fases: "entrada de prompt (prompting)" e "verificação de saída (verifying)".
O primeiro é algo que qualquer pessoa pode fazer, bastando digitar algumas linhas; mas o segundo é mais difícil, requerendo conhecimento especializado, paciência e raciocínio lógico para determinar se a IA cometeu um erro ou uma "ilusão (hallucination)".
AI PROMPTING → AI VERIFICANDO
A escalas de prompting de IA, porque prompting é apenas digitar.
Mas a verificação de IA não é escalável, porque verificar a saída da IA envolve muito mais do que apenas digitar.
Às vezes, você pode verificar a olho nu, razão pela qual a IA é ótima para frontend, imagens e vídeo. Mas…
— Balaji (@balajis) 4 de junho de 2025
Ele afirmou que essa diferença é facilmente tratada em imagens ou vídeos, pois o olho humano é naturalmente bom em julgar conteúdo visual. Mas, uma vez que se depara com código, artigos técnicos ou raciocínio lógico, a verificação se torna bastante complicada:
A questão mais importante ao usar a IA é: como posso verificar o conteúdo gerado por este modelo de IA de forma econômica? Precisamos de outras ferramentas ou produtos para validar conteúdos em áreas não visuais.
Ele acrescentou: "Para os utilizadores, a validação de IA é tão importante quanto as sugestões de IA."
Karpathy: A IA acelerou a criação, mas não reduziu o processo de validação.
O cofundador da OpenAI e pai da condução autônoma, Andrej Karpathy, expandiu ainda mais o ponto de vista de Balaji, observando que a essência da criação é um processo de duas etapas que ocorre repetidamente: "geração (generation)" e "discriminação (discrimination)": "Você fez uma marca (geração), mas também precisa dar um passo para trás e pensar se essa marca realmente melhorou a obra (discriminação)."
Ele acredita que os grandes modelos de linguagem (LLM) comprimem drasticamente o custo de tempo da "geração", permitindo que os usuários obtenham uma grande produção instantaneamente, mas não ajudam em nada a reduzir o custo e a carga de trabalho do "julgamento". Isso é especialmente grave para o código:
LLM é capaz de gerar facilmente dezenas ou até centenas de linhas de código, mas os engenheiros ainda precisam ler, entender e revisar toda a lógica e potenciais erros linha por linha.
Karpathy afirmou que isso é, na verdade, a coisa que a maioria dos engenheiros gasta mais tempo, o que é conhecido como "verificação de lacuna (Verification Gap)". A IA acelerou o processo de criação, mas esse custo de tempo foi transferido diretamente para a verificação.
( Da consultoria para a secretaria, os desafios de confiança da agência de IA: podemos confiar nas decisões autônomas da inteligência artificial? )
a16z: A crise de confiança da era da geração deve ser suprida pela tecnologia de criptografia.
O conhecido fundo de capital de risco a16z aborda a questão a partir de uma perspectiva institucional e industrial, acreditando que a tecnologia de IA acelerará a proliferação de "informações falsas", uma vez que a barreira de entrada para a geração é baixa e difícil de verificar, o que fará com que a internet fique inundada de conteúdo falsificado. A a16z defende que a confiança deve ser engenharia, e a solução é a introdução de tecnologias criptográficas, como:
Realizar processamento criptográfico dos dados produzidos em fases pela IA (hashed posts)
Criar usando identidades verificadas por blockchain (crypto IDs)
Através da transparência e rastreabilidade dos dados na blockchain, cria-se uma cadeia de conteúdo com fontes confiáveis.
Estas práticas não só garantem que a informação não possa ser alterada e que possa ser verificada, mas também estabelecem uma linha de defesa para a credibilidade do conteúdo na era da IA, prometendo tornar-se uma interseção importante entre a tecnologia de criptografia e o domínio da IA.
(Análise especializada da Messari: Como o protocolo Mira utiliza um mecanismo de consenso descentralizado para tornar a IA mais honesta?)
Desde as palavras-chave até à capacidade de validação, as novas competências e exigências da era da IA já estão formadas.
Atualmente, a IA generativa traz um crescimento exponencial na capacidade produtiva de informações, mas se não houver uma capacidade de validação igualmente eficiente para acompanhar, os usuários acabarão atolados em operações demoradas e na contaminação por informações falsas.
Assim, a habilidade central na atual era da IA não é mais apenas ser capaz de escrever prompts precisos, mas sim validar de forma eficaz e de baixo custo a produção da IA. Seja através da revisão mútua de modelos de IA ou de ferramentas de verificação especializadas, isso se torna extremamente importante.
Este artigo tem a IA tornado a vida mais conveniente? Balaji e a16z discutem como reduzir o custo de tempo para validar conteúdos de IA? Apareceu pela primeira vez na Chain News ABMedia.