Nova tentativa da camada de confiança da IA: Lançamento da Testnet da rede Mira
Recentemente, uma rede pública de testes chamada Mira foi oficialmente lançada. O objetivo deste projeto é construir uma camada de confiança para a IA, a fim de resolver alguns dos desafios críticos que os sistemas de IA enfrentam atualmente. Então, por que a IA precisa estabelecer confiança e como a Mira está abordando essa questão?
No campo da IA, as pessoas tendem a concentrar-se mais nas suas poderosas capacidades. No entanto, uma questão interessante, mas pouco discutida, é a "ilusão" ou preconceito da IA. A chamada "ilusão" da IA, simplificando, refere-se ao fato de que a IA às vezes "inventa" informações, parecendo falar de forma lógica e fundamentada. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode fornecer uma série de explicações que parecem razoáveis, mas que na verdade não têm fundamento.
A "ilusão" ou preconceito que aparece na IA está relacionada a algumas das atuais abordagens tecnológicas de IA. Por exemplo, a IA generativa produz a coerência e a razoabilidade do output ao prever o conteúdo "mais provável", mas esse método às vezes é difícil de validar sua veracidade. Além disso, os dados de treinamento em si podem conter erros, preconceitos ou até conteúdo fictício, o que pode afetar a qualidade do output da IA. Em outras palavras, a IA aprende os padrões de linguagem humanos, e não os fatos em si.
O mecanismo de geração de probabilidade atual e o modelo orientado a dados quase inevitavelmente levam a que a IA produza "ilusões". Para conteúdos de conhecimento geral ou entretenimento, essas saídas enviesadas ou ilusórias podem não ter consequências diretas imediatas. No entanto, se ocorrerem em áreas que exigem alta rigorosidade, como a medicina, direito, aviação e finanças, podem resultar em consequências graves. Portanto, como resolver o problema das ilusões e preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.
Atualmente, existem várias soluções na indústria. Algumas utilizam tecnologia de geração aumentada por busca, combinando IA com bancos de dados em tempo real, priorizando a apresentação de fatos verificados. Outras introduzem feedback humano, corrigindo os erros do modelo através de rotulagem e supervisão manual.
O projeto Mira também está a tentar resolver os problemas de preconceito e alucinações da IA. A sua ideia central é reduzir o preconceito e as alucinações da IA, aumentando a fiabilidade da IA, através da construção de uma camada de confiança para a IA. Então, como é que o Mira alcança este objetivo?
A ideia central da Mira é validar as saídas de IA através do consenso de múltiplos modelos de IA. A Mira é essencialmente uma rede de validação que utiliza o consenso de vários modelos de IA para verificar a fiabilidade das saídas de IA. Além disso, a Mira introduz um consenso descentralizado para realizar a validação.
A chave da rede Mira está na validação de consenso descentralizada. Essa abordagem se baseia em tecnologias do campo da criptografia, enquanto aproveita as vantagens da colaboração de múltiplos modelos, reduzindo preconceitos e ilusões por meio de um modelo de validação coletiva.
No que diz respeito à arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações independentes e verificáveis. Essas declarações requerem a participação dos operadores de nós na verificação. Para garantir a honestidade dos operadores de nós, Mira adotou um mecanismo de incentivos/punições econômicas criptográficas. Diferentes modelos de IA e operadores de nós descentralizados participam conjuntamente para garantir a fiabilidade dos resultados da verificação.
A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismos de consenso, a fim de garantir a confiabilidade da validação. Nesta arquitetura, a conversão de conteúdo é uma etapa importante. A rede Mira primeiro decompõe o conteúdo candidato (geralmente enviado pelo cliente) em diferentes declarações verificáveis, para garantir que o modelo possa entender o conteúdo no mesmo contexto. Essas declarações são distribuídas pelo sistema para os nós verificarem, a fim de determinar a validade das declarações e compilar os resultados para alcançar consenso. No final, esses resultados e o consenso são retornados ao cliente. Para proteger a privacidade do cliente, o conteúdo candidato é convertido e decomposto em pares de declarações, e distribuído a diferentes nós de forma aleatória, para evitar vazamentos de informações durante o processo de verificação.
Os operadores de nós são responsáveis por executar o modelo de validador, processar declarações e submeter resultados de validação. Eles estão dispostos a participar da validação porque podem obter recompensas. Essas recompensas vêm do valor criado para os clientes. O objetivo da rede Mira é reduzir a taxa de erro da IA (diminuir alucinações e preconceitos), e uma vez alcançado esse objetivo, poderá gerar um valor imenso em áreas como saúde, direito, aviação e finanças. Portanto, os clientes estão dispostos a pagar por isso. Claro, a sustentabilidade e a escala do pagamento dependem da capacidade da rede Mira de continuar a trazer valor para os clientes. Para evitar comportamentos especulativos de resposta aleatória dos nós, os nós que se afastam continuamente do consenso terão seus tokens de garantia reduzidos. No geral, a Mira garante que os operadores de nós participem honestamente da validação por meio de uma competição de mecanismos econômicos.
A Mira propõe uma nova abordagem para garantir a fiabilidade da IA: construir uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, trazendo maior fiabilidade aos serviços de IA dos clientes, reduzindo preconceitos e alucinações da IA, e atendendo à demanda dos clientes por maior precisão e exatidão. Ao mesmo tempo, traz benefícios aos participantes da rede Mira com base em fornecer valor aos clientes. Em suma, a Mira está a tentar construir uma camada de confiança para a IA, o que irá impulsionar o desenvolvimento profundo das aplicações de IA.
Atualmente, os utilizadores podem participar na Testnet do Mira através do Klok. O Klok é uma aplicação de chat LLM baseada no Mira, onde os utilizadores podem experimentar saídas de IA verificadas e comparar a diferença com saídas de IA não verificadas. Os participantes também podem ganhar pontos Mira, embora os futuros usos destes pontos ainda não tenham sido anunciados.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
2
Compartilhar
Comentário
0/400
SillyWhale
· 19h atrás
Interessante, vamos dar uma olhada primeiro.
Ver originalResponder0
NftRegretMachine
· 07-28 12:19
Tem pontos positivos, mas ainda precisa de observação.
Lançamento da fase de testes públicos da rede Mira para construir uma camada de confiança em IA, reduzindo preconceitos e alucinações.
Nova tentativa da camada de confiança da IA: Lançamento da Testnet da rede Mira
Recentemente, uma rede pública de testes chamada Mira foi oficialmente lançada. O objetivo deste projeto é construir uma camada de confiança para a IA, a fim de resolver alguns dos desafios críticos que os sistemas de IA enfrentam atualmente. Então, por que a IA precisa estabelecer confiança e como a Mira está abordando essa questão?
No campo da IA, as pessoas tendem a concentrar-se mais nas suas poderosas capacidades. No entanto, uma questão interessante, mas pouco discutida, é a "ilusão" ou preconceito da IA. A chamada "ilusão" da IA, simplificando, refere-se ao fato de que a IA às vezes "inventa" informações, parecendo falar de forma lógica e fundamentada. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode fornecer uma série de explicações que parecem razoáveis, mas que na verdade não têm fundamento.
A "ilusão" ou preconceito que aparece na IA está relacionada a algumas das atuais abordagens tecnológicas de IA. Por exemplo, a IA generativa produz a coerência e a razoabilidade do output ao prever o conteúdo "mais provável", mas esse método às vezes é difícil de validar sua veracidade. Além disso, os dados de treinamento em si podem conter erros, preconceitos ou até conteúdo fictício, o que pode afetar a qualidade do output da IA. Em outras palavras, a IA aprende os padrões de linguagem humanos, e não os fatos em si.
O mecanismo de geração de probabilidade atual e o modelo orientado a dados quase inevitavelmente levam a que a IA produza "ilusões". Para conteúdos de conhecimento geral ou entretenimento, essas saídas enviesadas ou ilusórias podem não ter consequências diretas imediatas. No entanto, se ocorrerem em áreas que exigem alta rigorosidade, como a medicina, direito, aviação e finanças, podem resultar em consequências graves. Portanto, como resolver o problema das ilusões e preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.
Atualmente, existem várias soluções na indústria. Algumas utilizam tecnologia de geração aumentada por busca, combinando IA com bancos de dados em tempo real, priorizando a apresentação de fatos verificados. Outras introduzem feedback humano, corrigindo os erros do modelo através de rotulagem e supervisão manual.
O projeto Mira também está a tentar resolver os problemas de preconceito e alucinações da IA. A sua ideia central é reduzir o preconceito e as alucinações da IA, aumentando a fiabilidade da IA, através da construção de uma camada de confiança para a IA. Então, como é que o Mira alcança este objetivo?
A ideia central da Mira é validar as saídas de IA através do consenso de múltiplos modelos de IA. A Mira é essencialmente uma rede de validação que utiliza o consenso de vários modelos de IA para verificar a fiabilidade das saídas de IA. Além disso, a Mira introduz um consenso descentralizado para realizar a validação.
A chave da rede Mira está na validação de consenso descentralizada. Essa abordagem se baseia em tecnologias do campo da criptografia, enquanto aproveita as vantagens da colaboração de múltiplos modelos, reduzindo preconceitos e ilusões por meio de um modelo de validação coletiva.
No que diz respeito à arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações independentes e verificáveis. Essas declarações requerem a participação dos operadores de nós na verificação. Para garantir a honestidade dos operadores de nós, Mira adotou um mecanismo de incentivos/punições econômicas criptográficas. Diferentes modelos de IA e operadores de nós descentralizados participam conjuntamente para garantir a fiabilidade dos resultados da verificação.
A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismos de consenso, a fim de garantir a confiabilidade da validação. Nesta arquitetura, a conversão de conteúdo é uma etapa importante. A rede Mira primeiro decompõe o conteúdo candidato (geralmente enviado pelo cliente) em diferentes declarações verificáveis, para garantir que o modelo possa entender o conteúdo no mesmo contexto. Essas declarações são distribuídas pelo sistema para os nós verificarem, a fim de determinar a validade das declarações e compilar os resultados para alcançar consenso. No final, esses resultados e o consenso são retornados ao cliente. Para proteger a privacidade do cliente, o conteúdo candidato é convertido e decomposto em pares de declarações, e distribuído a diferentes nós de forma aleatória, para evitar vazamentos de informações durante o processo de verificação.
Os operadores de nós são responsáveis por executar o modelo de validador, processar declarações e submeter resultados de validação. Eles estão dispostos a participar da validação porque podem obter recompensas. Essas recompensas vêm do valor criado para os clientes. O objetivo da rede Mira é reduzir a taxa de erro da IA (diminuir alucinações e preconceitos), e uma vez alcançado esse objetivo, poderá gerar um valor imenso em áreas como saúde, direito, aviação e finanças. Portanto, os clientes estão dispostos a pagar por isso. Claro, a sustentabilidade e a escala do pagamento dependem da capacidade da rede Mira de continuar a trazer valor para os clientes. Para evitar comportamentos especulativos de resposta aleatória dos nós, os nós que se afastam continuamente do consenso terão seus tokens de garantia reduzidos. No geral, a Mira garante que os operadores de nós participem honestamente da validação por meio de uma competição de mecanismos econômicos.
A Mira propõe uma nova abordagem para garantir a fiabilidade da IA: construir uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, trazendo maior fiabilidade aos serviços de IA dos clientes, reduzindo preconceitos e alucinações da IA, e atendendo à demanda dos clientes por maior precisão e exatidão. Ao mesmo tempo, traz benefícios aos participantes da rede Mira com base em fornecer valor aos clientes. Em suma, a Mira está a tentar construir uma camada de confiança para a IA, o que irá impulsionar o desenvolvimento profundo das aplicações de IA.
Atualmente, os utilizadores podem participar na Testnet do Mira através do Klok. O Klok é uma aplicação de chat LLM baseada no Mira, onde os utilizadores podem experimentar saídas de IA verificadas e comparar a diferença com saídas de IA não verificadas. Os participantes também podem ganhar pontos Mira, embora os futuros usos destes pontos ainda não tenham sido anunciados.