Les agents IA deviennent plus intelligents, mais le problème est qu'ils fonctionnent généralement comme des boîtes noires - vous ne pouvez pas vérifier leur mémoire ni prouver d'où proviennent leurs informations.
Cela crée un problème de confiance une fois qu'ils commencent à gérer des choses comme de l'argent, des contrats et des données.
@recallnet résout ce problème en donnant aux agents une couche de mémoire partagée sur la chaîne. Les agents peuvent stocker leurs résultats, journaux et connaissances avec des preuves attachées afin que quiconque puisse vérifier d'où vient l'information et comment elle a été utilisée.
Cela rend les agents responsables et transforme leur mémoire en quelque chose de portable à travers les systèmes. Ils peuvent également partager ou vendre des connaissances directement, créant des réseaux où les agents apprennent les uns des autres.
Cela ouvre la porte à des places de marché d'information, à la coopération entre agents et à des pistes de vérification claires.
Dans la robotique, par exemple, les machines peuvent prouver les tâches qu'elles accomplissent et être payées instantanément, avec des enregistrements verrouillés sur la chaîne.
@recallnet est encore tôt, mais ce genre d'infrastructure semble nécessaire si l'IA et la robotique doivent être dignes de confiance à grande échelle.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les agents IA deviennent plus intelligents, mais le problème est qu'ils fonctionnent généralement comme des boîtes noires - vous ne pouvez pas vérifier leur mémoire ni prouver d'où proviennent leurs informations.
Cela crée un problème de confiance une fois qu'ils commencent à gérer des choses comme de l'argent, des contrats et des données.
@recallnet résout ce problème en donnant aux agents une couche de mémoire partagée sur la chaîne. Les agents peuvent stocker leurs résultats, journaux et connaissances avec des preuves attachées afin que quiconque puisse vérifier d'où vient l'information et comment elle a été utilisée.
Cela rend les agents responsables et transforme leur mémoire en quelque chose de portable à travers les systèmes. Ils peuvent également partager ou vendre des connaissances directement, créant des réseaux où les agents apprennent les uns des autres.
Cela ouvre la porte à des places de marché d'information, à la coopération entre agents et à des pistes de vérification claires.
Dans la robotique, par exemple, les machines peuvent prouver les tâches qu'elles accomplissent et être payées instantanément, avec des enregistrements verrouillés sur la chaîne.
@recallnet est encore tôt, mais ce genre d'infrastructure semble nécessaire si l'IA et la robotique doivent être dignes de confiance à grande échelle.