Nouvelle tentative de couche de confiance AI : lancement du Testnet du réseau Mira
Récemment, un réseau public de test nommé Mira a été officiellement lancé. L'objectif de ce projet est de construire une couche de confiance pour l'IA afin de résoudre certains des défis clés auxquels les systèmes d'IA sont confrontés actuellement. Alors, pourquoi l'IA a-t-elle besoin d'établir la confiance, et comment Mira répond-elle à cette question ?
Dans le domaine de l'IA, les gens ont souvent tendance à se concentrer davantage sur ses puissantes capacités. Cependant, une question intéressante, mais moins souvent discutée, est celle des "hallucinations" ou des biais de l'IA. Ce que l'on appelle les "hallucinations" de l'IA, en termes simples, c'est que l'IA peut parfois "inventer" des informations, racontant des absurdités de manière apparemment rationnelle. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait fournir une série d'explications qui semblent raisonnables mais qui, en réalité, n'ont aucun fondement.
L'apparition de "hallucinations" ou de biais dans l'IA est liée à certaines des voies technologiques actuelles de l'IA. Par exemple, l'IA générative réalise la cohérence et la pertinence de ses sorties en prédisant le contenu le "plus probable", mais cette méthode peut parfois être difficile à vérifier. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais voire du contenu fictif, ce qui affecte la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle axé sur les données conduisent presque inévitablement l'IA à produire des "hallucinations". Pour un contenu de connaissances générales ou de divertissement, cette sortie biaisée ou illusoire peut ne pas avoir de conséquences immédiates. Cependant, si cela se produit dans des domaines exigeant une grande rigueur tels que la médecine, le droit, l'aviation ou la finance, cela peut avoir des conséquences graves. Par conséquent, comment résoudre les problèmes d'hallucination et de biais de l'IA est devenu l'une des questions centrales dans le processus de développement de l'IA.
Actuellement, l'industrie dispose de plusieurs solutions. Certaines utilisent la technologie de génération améliorée par la recherche, combinant l'IA avec des bases de données en temps réel, et priorisent la sortie de faits vérifiés. D'autres intègrent des retours humains, en corrigeant les erreurs du modèle par l'annotation et la supervision manuelles.
Le projet Mira tente également de résoudre les problèmes de biais et d'hallucinations de l'IA. Son idée principale est de réduire les biais et les hallucinations de l'IA en construisant une couche de confiance pour améliorer la fiabilité de l'IA. Alors, comment Mira parvient-il à atteindre cet objectif ?
L'idée principale de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Mira est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. De plus, Mira introduit également un consensus décentralisé pour effectuer la validation.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Cette méthode s'inspire des technologies du domaine de la cryptographie tout en tirant parti des avantages de la collaboration multi-modèle, réduisant ainsi les biais et les illusions grâce à un modèle de validation collectif.
En ce qui concerne l'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations vérifiables de manière indépendante. Ces déclarations nécessitent la participation des opérateurs de nœuds pour la validation. Pour garantir l'honnêteté des opérateurs de nœuds, Mira adopte un mécanisme d'incitation/récompense économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour assurer la fiabilité des résultats de validation.
L'architecture du réseau Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus, afin d'assurer la fiabilité de la validation. Dans cette architecture, la conversion de contenu est un maillon important. Le réseau Mira décompose d'abord le contenu candidat (généralement soumis par les clients) en différentes déclarations vérifiables, pour s'assurer que le modèle peut comprendre le contenu dans le même contexte. Ces déclarations sont distribuées par le système aux nœuds pour validation, afin de déterminer la validité des déclarations et de résumer les résultats pour parvenir à un consensus. En fin de compte, ces résultats et ce consensus sont renvoyés aux clients. Afin de protéger la vie privée des clients, le contenu candidat est converti et décomposé en paires de déclarations, et distribué de manière aléatoire aux différents nœuds, pour éviter toute fuite d'information pendant le processus de validation.
Les opérateurs de nœuds sont responsables de l'exécution du modèle de validateurs, de la gestion des déclarations et de la soumission des résultats de validation. Ils sont disposés à participer à la validation car cela leur permet de générer des revenus. Ces revenus proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA (réduire les hallucinations et les biais), une fois cet objectif atteint, il pourra générer une valeur énorme dans des domaines tels que la santé, le droit, l'aviation et la finance. Par conséquent, les clients sont prêts à payer pour cela. Bien sûr, la durabilité et l'échelle des paiements dépendent de la capacité du réseau Mira à continuer d'apporter de la valeur aux clients. Pour éviter la spéculation des réponses aléatoires des nœuds, les nœuds qui s'écartent constamment du consensus verront leur jeton de mise réduit. Dans l'ensemble, Mira assure la participation honnête des opérateurs de nœuds à la validation par le biais d'un mécanisme économique de jeu.
Mira propose une nouvelle approche pour garantir la fiabilité de l'IA : construire un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité pour les services d'IA des clients, réduisant les biais et les hallucinations de l'IA, tout en répondant aux attentes des clients en matière de précision et de taux de précision plus élevés. Parallèlement, sur la base de la valeur fournie aux clients, cela génère des bénéfices pour les participants du réseau Mira. En résumé, Mira s'efforce de construire une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au Testnet de Mira via Klok. Klok est une application de chat LLM basée sur Mira, permettant aux utilisateurs d'expérimenter des sorties d'IA vérifiées et de comparer la différence avec des sorties d'IA non vérifiées. Les participants peuvent également gagner des points Mira, bien que les utilisations futures de ces points n'aient pas encore été annoncées.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
2
Partager
Commentaire
0/400
SillyWhale
· 07-29 02:07
C'est intéressant, voyons d'abord.
Voir l'originalRépondre0
NftRegretMachine
· 07-28 12:19
Des points positifs, mais il faut encore observer.
Le réseau Mira lance des tests publics pour construire une couche de confiance en IA afin de réduire les biais et les illusions.
Nouvelle tentative de couche de confiance AI : lancement du Testnet du réseau Mira
Récemment, un réseau public de test nommé Mira a été officiellement lancé. L'objectif de ce projet est de construire une couche de confiance pour l'IA afin de résoudre certains des défis clés auxquels les systèmes d'IA sont confrontés actuellement. Alors, pourquoi l'IA a-t-elle besoin d'établir la confiance, et comment Mira répond-elle à cette question ?
Dans le domaine de l'IA, les gens ont souvent tendance à se concentrer davantage sur ses puissantes capacités. Cependant, une question intéressante, mais moins souvent discutée, est celle des "hallucinations" ou des biais de l'IA. Ce que l'on appelle les "hallucinations" de l'IA, en termes simples, c'est que l'IA peut parfois "inventer" des informations, racontant des absurdités de manière apparemment rationnelle. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait fournir une série d'explications qui semblent raisonnables mais qui, en réalité, n'ont aucun fondement.
L'apparition de "hallucinations" ou de biais dans l'IA est liée à certaines des voies technologiques actuelles de l'IA. Par exemple, l'IA générative réalise la cohérence et la pertinence de ses sorties en prédisant le contenu le "plus probable", mais cette méthode peut parfois être difficile à vérifier. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais voire du contenu fictif, ce qui affecte la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle axé sur les données conduisent presque inévitablement l'IA à produire des "hallucinations". Pour un contenu de connaissances générales ou de divertissement, cette sortie biaisée ou illusoire peut ne pas avoir de conséquences immédiates. Cependant, si cela se produit dans des domaines exigeant une grande rigueur tels que la médecine, le droit, l'aviation ou la finance, cela peut avoir des conséquences graves. Par conséquent, comment résoudre les problèmes d'hallucination et de biais de l'IA est devenu l'une des questions centrales dans le processus de développement de l'IA.
Actuellement, l'industrie dispose de plusieurs solutions. Certaines utilisent la technologie de génération améliorée par la recherche, combinant l'IA avec des bases de données en temps réel, et priorisent la sortie de faits vérifiés. D'autres intègrent des retours humains, en corrigeant les erreurs du modèle par l'annotation et la supervision manuelles.
Le projet Mira tente également de résoudre les problèmes de biais et d'hallucinations de l'IA. Son idée principale est de réduire les biais et les hallucinations de l'IA en construisant une couche de confiance pour améliorer la fiabilité de l'IA. Alors, comment Mira parvient-il à atteindre cet objectif ?
L'idée principale de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Mira est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. De plus, Mira introduit également un consensus décentralisé pour effectuer la validation.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Cette méthode s'inspire des technologies du domaine de la cryptographie tout en tirant parti des avantages de la collaboration multi-modèle, réduisant ainsi les biais et les illusions grâce à un modèle de validation collectif.
En ce qui concerne l'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations vérifiables de manière indépendante. Ces déclarations nécessitent la participation des opérateurs de nœuds pour la validation. Pour garantir l'honnêteté des opérateurs de nœuds, Mira adopte un mécanisme d'incitation/récompense économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour assurer la fiabilité des résultats de validation.
L'architecture du réseau Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus, afin d'assurer la fiabilité de la validation. Dans cette architecture, la conversion de contenu est un maillon important. Le réseau Mira décompose d'abord le contenu candidat (généralement soumis par les clients) en différentes déclarations vérifiables, pour s'assurer que le modèle peut comprendre le contenu dans le même contexte. Ces déclarations sont distribuées par le système aux nœuds pour validation, afin de déterminer la validité des déclarations et de résumer les résultats pour parvenir à un consensus. En fin de compte, ces résultats et ce consensus sont renvoyés aux clients. Afin de protéger la vie privée des clients, le contenu candidat est converti et décomposé en paires de déclarations, et distribué de manière aléatoire aux différents nœuds, pour éviter toute fuite d'information pendant le processus de validation.
Les opérateurs de nœuds sont responsables de l'exécution du modèle de validateurs, de la gestion des déclarations et de la soumission des résultats de validation. Ils sont disposés à participer à la validation car cela leur permet de générer des revenus. Ces revenus proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA (réduire les hallucinations et les biais), une fois cet objectif atteint, il pourra générer une valeur énorme dans des domaines tels que la santé, le droit, l'aviation et la finance. Par conséquent, les clients sont prêts à payer pour cela. Bien sûr, la durabilité et l'échelle des paiements dépendent de la capacité du réseau Mira à continuer d'apporter de la valeur aux clients. Pour éviter la spéculation des réponses aléatoires des nœuds, les nœuds qui s'écartent constamment du consensus verront leur jeton de mise réduit. Dans l'ensemble, Mira assure la participation honnête des opérateurs de nœuds à la validation par le biais d'un mécanisme économique de jeu.
Mira propose une nouvelle approche pour garantir la fiabilité de l'IA : construire un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité pour les services d'IA des clients, réduisant les biais et les hallucinations de l'IA, tout en répondant aux attentes des clients en matière de précision et de taux de précision plus élevés. Parallèlement, sur la base de la valeur fournie aux clients, cela génère des bénéfices pour les participants du réseau Mira. En résumé, Mira s'efforce de construire une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au Testnet de Mira via Klok. Klok est une application de chat LLM basée sur Mira, permettant aux utilisateurs d'expérimenter des sorties d'IA vérifiées et de comparer la différence avec des sorties d'IA non vérifiées. Les participants peuvent également gagner des points Mira, bien que les utilisations futures de ces points n'aient pas encore été annoncées.