Les projets Web3 basés sur l'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.
Les opportunités de Web3 dans le secteur de l'IA se manifestent par : l'utilisation d'incitations distribuées pour coordonner l'offre potentielle dans la longue traîne — à travers les données, le stockage et le calcul ; tout en établissant des modèles open source et un marché décentralisé pour les agents d'IA.
L'IA est principalement utilisée dans l'industrie Web3 pour la finance en chaîne ( les paiements cryptographiques, le commerce, l'analyse des données ) et le développement assisté.
L'utilité de l'IA + Web3 réside dans leur complémentarité : Web3 est promis à combattre la centralisation de l'IA, et l'IA devrait aider Web3 à se développer au-delà de ses limites.
Introduction
Au cours des deux dernières années, le développement de l'IA a été comme si on avait appuyé sur le bouton d'accélération. Cet effet papillon provoqué par Chatgpt a non seulement ouvert un nouveau monde pour l'intelligence artificielle générative, mais a également suscité un courant dans le domaine du Web3.
Sous l'influence du concept d'IA, le financement du marché de la cryptographie, qui ralentit, montre une nette amélioration. Selon les statistiques, seulement au cours du premier semestre 2024, 64 projets Web3+IA ont réussi à se financer, le système d'exploitation basé sur l'intelligence artificielle Zyber365 ayant atteint un montant de financement maximum de 100 millions de dollars lors de sa série A.
Le marché secondaire est plus prospère, selon les données du site d'agrégation de crypto-monnaies Coingecko, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars en un peu plus d'un an, avec un volume de transactions sur 24 heures approchant les 8,6 milliards de dollars ; les avancées technologiques majeures de l'IA apportent des bénéfices évidents, après la publication du modèle de conversion de texte en vidéo Sora d'OpenAI, le prix moyen du secteur de l'IA a augmenté de 151 % ; l'effet IA s'étend également à l'un des segments de collecte de fonds en crypto-monnaies, les Memes : le premier concept de MemeCoin avec un Agent IA — GOAT a rapidement gagné en popularité et a atteint une valorisation de 1,4 milliard de dollars, déclenchant avec succès un engouement pour les Memes IA.
La recherche et les discussions sur l'AI+Web3 sont également très animées, allant de l'AI+Depin au Memecoin AI, puis aux Agents AI et aux DAO AI actuels. L'émotion FOMO ne parvient déjà plus à suivre la vitesse de rotation des nouveaux récits.
AI+Web3, cette combinaison de termes pleine d'argent facile, de tendances et de fantasmes d'avenir, est inévitablement perçue comme un mariage arrangé orchestré par le capital. Il semble que nous ayons du mal à distinguer, sous ce manteau flamboyant, s'il s'agit vraiment du terrain de jeu des spéculateurs ou de la veille d'une explosion à l'aube?
Pour répondre à cette question, une réflexion clé pour les deux parties est : cela s'améliorera-t-il avec l'autre ? Peut-on bénéficier des modèles de l'autre ? Dans cet article, nous essayons également de nous placer sur les épaules des géants pour examiner ce schéma : comment le Web3 peut-il jouer un rôle à chaque étape de la pile technologique de l'IA, et qu'est-ce que l'IA peut apporter de nouveau au Web3 ?
Partie 1 Quelles sont les opportunités de Web3 dans la pile AI ?
Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles d'IA :
Exprimez l'ensemble du processus dans un langage plus simple : le « grand modèle » est comme le cerveau humain. À un stade précoce, ce cerveau appartient à un bébé qui vient de naître, et il a besoin d'observer et d'absorber une quantité massive d'informations externes pour comprendre ce monde. C'est la phase de « collecte » des données. Comme les ordinateurs ne possèdent pas les sens humains tels que la vue et l'ouïe, avant l'entraînement, les grandes quantités d'informations non étiquetées de l'extérieur doivent être transformées par « prétraitement » en un format d'information que l'ordinateur peut comprendre et utiliser.
Après avoir saisi les données, l'IA a construit un modèle capable de compréhension et de prédiction par le biais de « l'entraînement », ce qui peut être considéré comme le processus par lequel un bébé comprend et apprend progressivement le monde extérieur. Les paramètres du modèle ressemblent à la capacité linguistique d'un bébé qui s'ajuste continuellement au cours de son apprentissage. Lorsque le contenu appris commence à se spécialiser, ou que des retours d'interaction avec les autres permettent des corrections, on entre alors dans la phase de « fine-tuning » du grand modèle.
Les enfants, en grandissant et en apprenant à parler, peuvent comprendre le sens et exprimer leurs sentiments et pensées dans de nouveaux dialogues. Cette étape est similaire au « raisonnement » des grands modèles d'IA, qui peuvent prédire et analyser de nouvelles entrées de langage et de texte. Les bébés expriment leurs sentiments, décrivent des objets et résolvent divers problèmes grâce à leur capacité linguistique, ce qui est également similaire à l'application des grands modèles d'IA après leur formation dans des tâches spécifiques pendant la phase de raisonnement, comme la classification d'images, la reconnaissance vocale, etc.
L'agent IA se rapproche ainsi de la prochaine forme des grands modèles - capable d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes, non seulement doté de capacités de réflexion, mais également capable de mémoire, de planification et d'utiliser des outils pour interagir avec le monde.
Actuellement, en réponse aux points de douleur de l'IA dans diverses couches, le Web3 a commencé à former un écosystème multi-niveaux et interconnecté, couvrant toutes les étapes du processus de modèle d'IA.
Une, couche de base : Airbnb de la puissance de calcul et des données
Puissance de calcul
Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires pour entraîner les modèles et effectuer des inférences.
Un exemple est que le LLAMA3 de Meta nécessite 16 000 H100 GPU produits par NVIDIA(, qui est une unité de traitement graphique haut de gamme conçue spécifiquement pour les charges de travail en intelligence artificielle et en calcul haute performance), pour achever l'entraînement en 30 jours. Le prix unitaire de la version 80 Go se situe entre 30 000 et 40 000 dollars, ce qui nécessite un investissement en matériel informatique de 400 à 700 millions de dollars(, ainsi que des GPU + puces réseau). De plus, l'entraînement mensuel nécessite la consommation de 1,6 milliard de kilowattheures, avec des dépenses énergétiques atteignant près de 20 millions de dollars par mois.
La décompression de la puissance de calcul de l'IA est également l'un des premiers domaines d'intersection entre le Web3 et l'IA - le réseau d'infrastructure physique décentralisé DePin(. Actuellement, le site de données DePin Ninja a répertorié plus de 1400 projets, parmi lesquels des projets représentatifs de partage de puissance GPU incluent io.net, Aethir, Akash, Render Network, etc.
La logique principale réside dans le fait que la plateforme permet aux particuliers ou entités possédant des ressources GPU inutilisées de contribuer à leur capacité de calcul de manière décentralisée et sans autorisation, à travers un marché en ligne similaire à celui d'Uber ou Airbnb, augmentant ainsi le taux d'utilisation des ressources GPU sous-utilisées. Les utilisateurs finaux bénéficient également de ressources de calcul efficaces à faible coût ; en même temps, le mécanisme de mise en jeu garantit que si des violations du mécanisme de contrôle de la qualité ou des interruptions du réseau se produisent, les fournisseurs de ressources sont soumis à des sanctions appropriées.
Ses caractéristiques sont :
Rassembler les ressources GPU inutilisées : les fournisseurs principaux sont des opérateurs de centres de données indépendants de taille petite à moyenne, des fermes de crypto-minage, etc., avec des ressources de puissance de calcul excédentaires, et un mécanisme de consensus basé sur PoS de matériel de minage, comme les machines de minage FileCoin et ETH. Actuellement, il existe également des projets visant à lancer des équipements avec des seuils d'entrée plus bas, comme exolab qui utilise des appareils locaux tels que MacBook, iPhone, iPad, etc. pour établir un réseau de calcul pour l'inférence de grands modèles.
Faire face au marché à long terme de la puissance de calcul de l'IA :
a. « D'un point de vue technique », le marché de la puissance de calcul décentralisée est plus adapté pour les étapes d'inférence. L'entraînement dépend davantage de la capacité de traitement des données offerte par des clusters GPU de très grande taille, tandis que l'inférence exige des performances de calcul GPU relativement faibles, comme Aethir qui se concentre sur le rendu à faible latence et les applications d'inférence AI.
b. "En ce qui concerne le côté de la demande", les demandeurs de puissance de calcul moyenne ne formeront pas leur propre grand modèle séparément, mais choisiront plutôt d'optimiser et de peaufiner autour de quelques grands modèles de tête, et ces scénarios sont naturellement adaptés aux ressources de calcul distribuées inutilisées.
Propriété décentralisée : la signification technique de la blockchain réside dans le fait que les propriétaires de ressources conservent toujours le contrôle sur celles-ci, ajustant de manière flexible en fonction des besoins tout en générant des revenus.
)# Données
Les données sont la base de l'IA. Sans données, le calcul est aussi inutile qu'une feuille flottante, et la relation entre les données et le modèle est semblable à l'expression "Garbage in, Garbage out". La quantité de données et la qualité des entrées déterminent la qualité de sortie finale du modèle. Pour l'entraînement des modèles d'IA actuels, les données déterminent la capacité linguistique, la capacité de compréhension, et même les valeurs et l'humanité du modèle. Actuellement, les défis liés aux besoins en données de l'IA se concentrent principalement sur quatre aspects :
Soif de données : l'entraînement des modèles d'IA repose sur une grande quantité de données d'entrée. Les données publiques montrent qu'OpenAI a entraîné GPT-4 avec un nombre de paramètres atteignant le niveau des trillions.
Qualité des données : Avec l'intégration de l'IA dans divers secteurs, la pertinence des données, la diversité des données, la spécialisation des données sectorielles et l'intégration de nouvelles sources de données telles que les émotions sur les réseaux sociaux posent de nouvelles exigences sur leur qualité.
Problèmes de confidentialité et de conformité : Les pays et entreprises commencent à réaliser l'importance des ensembles de données de qualité et mettent en place des restrictions sur le crawling des ensembles de données.
Coût de traitement des données élevé : grande quantité de données, processus de traitement complexe. Les données publiées montrent que plus de 30 % des coûts de R&D des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.
Actuellement, les solutions web3 se manifestent dans les quatre domaines suivants :
Collecte de données : La disponibilité des données du monde réel collectées gratuitement s'épuise rapidement, et les dépenses des entreprises d'IA pour les données augmentent d'année en année. Cependant, dans le même temps, ces dépenses ne profitent pas aux véritables contributeurs de données, les plateformes profitant pleinement de la valeur créée par ces données.
Permettre aux utilisateurs qui contribuent réellement de participer à la création de valeur générée par les données, ainsi que d'obtenir des données plus privées et de plus grande valeur à moindre coût grâce à un réseau distribué et à un mécanisme d'incitation, est la vision du Web3.
Grass est une couche de données et un réseau décentralisés, permettant aux utilisateurs de contribuer en exécutant des nœuds Grass, en fournissant de la bande passante inutilisée et en relayant du trafic pour capturer des données en temps réel sur l'ensemble d'Internet, et de recevoir des récompenses en tokens;
Vana introduit un concept unique de piscine de liquidité de données ###DLP(, où les utilisateurs peuvent télécharger leurs données privées ) telles que les historiques d'achats, les habitudes de navigation, les activités sur les réseaux sociaux, etc. ( vers un DLP spécifique, et choisir de manière flexible s'ils souhaitent autoriser des tiers spécifiques à utiliser ces données;
Dans PublicAI, les utilisateurs peuvent utiliser )Web3 comme étiquette de classification sur X et @PublicAI pour collecter des données.
Prétraitement des données : Dans le processus de traitement des données par l'IA, les données collectées sont généralement bruyantes et contiennent des erreurs, elles doivent donc être nettoyées et converties en un format utilisable avant d'entraîner le modèle, ce qui implique des tâches répétitives de normalisation, de filtrage et de traitement des valeurs manquantes. Cette étape est l'un des rares moments manuels dans l'industrie de l'IA, ayant donné naissance au métier de annotateur de données. Avec l'augmentation des exigences de qualité des données par les modèles, le seuil d'entrée pour les annotateurs de données a également augmenté, et cette tâche est naturellement adaptée aux mécanismes d'incitation décentralisés du Web3.
Actuellement, Grass et OpenLayer envisagent tous deux d'intégrer l'étape clé de l'annotation des données.
Synesis a introduit le concept de « Train2earn », mettant l'accent sur la qualité des données, les utilisateurs peuvent obtenir des récompenses en fournissant des données annotées, des commentaires ou d'autres formes d'entrée.
Le projet de marquage de données Sapien gamifie les tâches de marquage et permet aux utilisateurs de miser des points pour en gagner davantage.
Vie privée et sécurité des données : il est nécessaire de clarifier que la vie privée des données et la sécurité des données sont deux concepts différents. La vie privée des données concerne le traitement des données sensibles, tandis que la sécurité des données protège les informations contre l'accès non autorisé, la destruction et le vol. Ainsi, les avantages des technologies de confidentialité Web3 et les scénarios d'application potentiels se manifestent de deux manières : #AI或#1( entraînement des données sensibles ; )2( collaboration des données : plusieurs propriétaires de données peuvent participer ensemble à l'entraînement de l'IA sans avoir à partager leurs données originales.
Les technologies de confidentialité actuellement courantes dans le Web3 incluent :
Environnement d'exécution de confiance ) TEE (, par exemple Super Protocol;
Chiffrement homomorphe complet ) FHE (, par exemple BasedAI, Fhenix.io ou Inco Network;
La technologie à connaissance nulle ) zk (, comme le protocole Reclaim qui utilise la technologie zkTLS, génère une preuve à connaissance nulle pour le trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des données d'activité, de réputation et d'identité depuis des sites externes sans exposer d'informations sensibles.
Cependant, ce domaine en est encore à ses débuts, la plupart des projets étant encore en phase d'exploration. Un des dilemmes actuels est le coût élevé du calcul, quelques exemples sont :
Le cadre zkML EZKL nécessite environ 80 minutes pour générer une preuve d'un modèle 1M-nanoGPT.
Selon les données de Modulus Labs, les coûts de zkML sont plus de 1000 fois supérieurs à ceux du calcul pur.
Stockage des données : Une fois les données obtenues, il faut un endroit pour stocker les données sur la chaîne, ainsi que le LLM généré à partir de ces données. Avec la disponibilité des données )DA( comme problème central, avant la mise à niveau Danksharding d'Ethereum, son débit était de 0,08 Mo. Pendant ce temps, l'entraînement des modèles d'IA et l'inférence en temps réel nécessitent généralement un débit de données de 50 à 100 Go par seconde. Cet écart d'ordre de grandeur rend les solutions existantes sur la chaîne incapables de faire face aux "applications d'IA intensives en ressources".
0g.AI est un projet représentatif de cette catégorie. C'est un projet destiné à
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
5
Partager
Commentaire
0/400
wagmi_eventually
· Il y a 13h
Encore une fois, se faire prendre pour des cons.
Voir l'originalRépondre0
GasWaster
· Il y a 13h
bruh l2s pourrait en fait sauver l'ia de devenir un cauchemar de gas ngl...
Voir l'originalRépondre0
consensus_whisperer
· Il y a 13h
C'est juste de la spéculation, le prochain.
Voir l'originalRépondre0
OPsychology
· Il y a 13h
Tss, c'est juste un nouveau piège de spéculation.
Voir l'originalRépondre0
BearMarketBarber
· Il y a 14h
Tout le monde ne fait que spéculer sur des concepts pour gagner de l'argent~
La fusion de l'IA et du Web3 est inéluctable : un nouveau modèle allant du partage de puissance de calcul à l'incitation des données.
IA+Web3 : Tours et places
TL;DR
Les projets Web3 basés sur l'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.
Les opportunités de Web3 dans le secteur de l'IA se manifestent par : l'utilisation d'incitations distribuées pour coordonner l'offre potentielle dans la longue traîne — à travers les données, le stockage et le calcul ; tout en établissant des modèles open source et un marché décentralisé pour les agents d'IA.
L'IA est principalement utilisée dans l'industrie Web3 pour la finance en chaîne ( les paiements cryptographiques, le commerce, l'analyse des données ) et le développement assisté.
L'utilité de l'IA + Web3 réside dans leur complémentarité : Web3 est promis à combattre la centralisation de l'IA, et l'IA devrait aider Web3 à se développer au-delà de ses limites.
Introduction
Au cours des deux dernières années, le développement de l'IA a été comme si on avait appuyé sur le bouton d'accélération. Cet effet papillon provoqué par Chatgpt a non seulement ouvert un nouveau monde pour l'intelligence artificielle générative, mais a également suscité un courant dans le domaine du Web3.
Sous l'influence du concept d'IA, le financement du marché de la cryptographie, qui ralentit, montre une nette amélioration. Selon les statistiques, seulement au cours du premier semestre 2024, 64 projets Web3+IA ont réussi à se financer, le système d'exploitation basé sur l'intelligence artificielle Zyber365 ayant atteint un montant de financement maximum de 100 millions de dollars lors de sa série A.
Le marché secondaire est plus prospère, selon les données du site d'agrégation de crypto-monnaies Coingecko, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars en un peu plus d'un an, avec un volume de transactions sur 24 heures approchant les 8,6 milliards de dollars ; les avancées technologiques majeures de l'IA apportent des bénéfices évidents, après la publication du modèle de conversion de texte en vidéo Sora d'OpenAI, le prix moyen du secteur de l'IA a augmenté de 151 % ; l'effet IA s'étend également à l'un des segments de collecte de fonds en crypto-monnaies, les Memes : le premier concept de MemeCoin avec un Agent IA — GOAT a rapidement gagné en popularité et a atteint une valorisation de 1,4 milliard de dollars, déclenchant avec succès un engouement pour les Memes IA.
La recherche et les discussions sur l'AI+Web3 sont également très animées, allant de l'AI+Depin au Memecoin AI, puis aux Agents AI et aux DAO AI actuels. L'émotion FOMO ne parvient déjà plus à suivre la vitesse de rotation des nouveaux récits.
AI+Web3, cette combinaison de termes pleine d'argent facile, de tendances et de fantasmes d'avenir, est inévitablement perçue comme un mariage arrangé orchestré par le capital. Il semble que nous ayons du mal à distinguer, sous ce manteau flamboyant, s'il s'agit vraiment du terrain de jeu des spéculateurs ou de la veille d'une explosion à l'aube?
Pour répondre à cette question, une réflexion clé pour les deux parties est : cela s'améliorera-t-il avec l'autre ? Peut-on bénéficier des modèles de l'autre ? Dans cet article, nous essayons également de nous placer sur les épaules des géants pour examiner ce schéma : comment le Web3 peut-il jouer un rôle à chaque étape de la pile technologique de l'IA, et qu'est-ce que l'IA peut apporter de nouveau au Web3 ?
Partie 1 Quelles sont les opportunités de Web3 dans la pile AI ?
Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles d'IA :
Exprimez l'ensemble du processus dans un langage plus simple : le « grand modèle » est comme le cerveau humain. À un stade précoce, ce cerveau appartient à un bébé qui vient de naître, et il a besoin d'observer et d'absorber une quantité massive d'informations externes pour comprendre ce monde. C'est la phase de « collecte » des données. Comme les ordinateurs ne possèdent pas les sens humains tels que la vue et l'ouïe, avant l'entraînement, les grandes quantités d'informations non étiquetées de l'extérieur doivent être transformées par « prétraitement » en un format d'information que l'ordinateur peut comprendre et utiliser.
Après avoir saisi les données, l'IA a construit un modèle capable de compréhension et de prédiction par le biais de « l'entraînement », ce qui peut être considéré comme le processus par lequel un bébé comprend et apprend progressivement le monde extérieur. Les paramètres du modèle ressemblent à la capacité linguistique d'un bébé qui s'ajuste continuellement au cours de son apprentissage. Lorsque le contenu appris commence à se spécialiser, ou que des retours d'interaction avec les autres permettent des corrections, on entre alors dans la phase de « fine-tuning » du grand modèle.
Les enfants, en grandissant et en apprenant à parler, peuvent comprendre le sens et exprimer leurs sentiments et pensées dans de nouveaux dialogues. Cette étape est similaire au « raisonnement » des grands modèles d'IA, qui peuvent prédire et analyser de nouvelles entrées de langage et de texte. Les bébés expriment leurs sentiments, décrivent des objets et résolvent divers problèmes grâce à leur capacité linguistique, ce qui est également similaire à l'application des grands modèles d'IA après leur formation dans des tâches spécifiques pendant la phase de raisonnement, comme la classification d'images, la reconnaissance vocale, etc.
L'agent IA se rapproche ainsi de la prochaine forme des grands modèles - capable d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes, non seulement doté de capacités de réflexion, mais également capable de mémoire, de planification et d'utiliser des outils pour interagir avec le monde.
Actuellement, en réponse aux points de douleur de l'IA dans diverses couches, le Web3 a commencé à former un écosystème multi-niveaux et interconnecté, couvrant toutes les étapes du processus de modèle d'IA.
Une, couche de base : Airbnb de la puissance de calcul et des données
Puissance de calcul
Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires pour entraîner les modèles et effectuer des inférences.
Un exemple est que le LLAMA3 de Meta nécessite 16 000 H100 GPU produits par NVIDIA(, qui est une unité de traitement graphique haut de gamme conçue spécifiquement pour les charges de travail en intelligence artificielle et en calcul haute performance), pour achever l'entraînement en 30 jours. Le prix unitaire de la version 80 Go se situe entre 30 000 et 40 000 dollars, ce qui nécessite un investissement en matériel informatique de 400 à 700 millions de dollars(, ainsi que des GPU + puces réseau). De plus, l'entraînement mensuel nécessite la consommation de 1,6 milliard de kilowattheures, avec des dépenses énergétiques atteignant près de 20 millions de dollars par mois.
La décompression de la puissance de calcul de l'IA est également l'un des premiers domaines d'intersection entre le Web3 et l'IA - le réseau d'infrastructure physique décentralisé DePin(. Actuellement, le site de données DePin Ninja a répertorié plus de 1400 projets, parmi lesquels des projets représentatifs de partage de puissance GPU incluent io.net, Aethir, Akash, Render Network, etc.
La logique principale réside dans le fait que la plateforme permet aux particuliers ou entités possédant des ressources GPU inutilisées de contribuer à leur capacité de calcul de manière décentralisée et sans autorisation, à travers un marché en ligne similaire à celui d'Uber ou Airbnb, augmentant ainsi le taux d'utilisation des ressources GPU sous-utilisées. Les utilisateurs finaux bénéficient également de ressources de calcul efficaces à faible coût ; en même temps, le mécanisme de mise en jeu garantit que si des violations du mécanisme de contrôle de la qualité ou des interruptions du réseau se produisent, les fournisseurs de ressources sont soumis à des sanctions appropriées.
Ses caractéristiques sont :
Rassembler les ressources GPU inutilisées : les fournisseurs principaux sont des opérateurs de centres de données indépendants de taille petite à moyenne, des fermes de crypto-minage, etc., avec des ressources de puissance de calcul excédentaires, et un mécanisme de consensus basé sur PoS de matériel de minage, comme les machines de minage FileCoin et ETH. Actuellement, il existe également des projets visant à lancer des équipements avec des seuils d'entrée plus bas, comme exolab qui utilise des appareils locaux tels que MacBook, iPhone, iPad, etc. pour établir un réseau de calcul pour l'inférence de grands modèles.
Faire face au marché à long terme de la puissance de calcul de l'IA :
a. « D'un point de vue technique », le marché de la puissance de calcul décentralisée est plus adapté pour les étapes d'inférence. L'entraînement dépend davantage de la capacité de traitement des données offerte par des clusters GPU de très grande taille, tandis que l'inférence exige des performances de calcul GPU relativement faibles, comme Aethir qui se concentre sur le rendu à faible latence et les applications d'inférence AI.
b. "En ce qui concerne le côté de la demande", les demandeurs de puissance de calcul moyenne ne formeront pas leur propre grand modèle séparément, mais choisiront plutôt d'optimiser et de peaufiner autour de quelques grands modèles de tête, et ces scénarios sont naturellement adaptés aux ressources de calcul distribuées inutilisées.
)# Données
Les données sont la base de l'IA. Sans données, le calcul est aussi inutile qu'une feuille flottante, et la relation entre les données et le modèle est semblable à l'expression "Garbage in, Garbage out". La quantité de données et la qualité des entrées déterminent la qualité de sortie finale du modèle. Pour l'entraînement des modèles d'IA actuels, les données déterminent la capacité linguistique, la capacité de compréhension, et même les valeurs et l'humanité du modèle. Actuellement, les défis liés aux besoins en données de l'IA se concentrent principalement sur quatre aspects :
Soif de données : l'entraînement des modèles d'IA repose sur une grande quantité de données d'entrée. Les données publiques montrent qu'OpenAI a entraîné GPT-4 avec un nombre de paramètres atteignant le niveau des trillions.
Qualité des données : Avec l'intégration de l'IA dans divers secteurs, la pertinence des données, la diversité des données, la spécialisation des données sectorielles et l'intégration de nouvelles sources de données telles que les émotions sur les réseaux sociaux posent de nouvelles exigences sur leur qualité.
Problèmes de confidentialité et de conformité : Les pays et entreprises commencent à réaliser l'importance des ensembles de données de qualité et mettent en place des restrictions sur le crawling des ensembles de données.
Coût de traitement des données élevé : grande quantité de données, processus de traitement complexe. Les données publiées montrent que plus de 30 % des coûts de R&D des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.
Actuellement, les solutions web3 se manifestent dans les quatre domaines suivants :
Permettre aux utilisateurs qui contribuent réellement de participer à la création de valeur générée par les données, ainsi que d'obtenir des données plus privées et de plus grande valeur à moindre coût grâce à un réseau distribué et à un mécanisme d'incitation, est la vision du Web3.
Grass est une couche de données et un réseau décentralisés, permettant aux utilisateurs de contribuer en exécutant des nœuds Grass, en fournissant de la bande passante inutilisée et en relayant du trafic pour capturer des données en temps réel sur l'ensemble d'Internet, et de recevoir des récompenses en tokens;
Vana introduit un concept unique de piscine de liquidité de données ###DLP(, où les utilisateurs peuvent télécharger leurs données privées ) telles que les historiques d'achats, les habitudes de navigation, les activités sur les réseaux sociaux, etc. ( vers un DLP spécifique, et choisir de manière flexible s'ils souhaitent autoriser des tiers spécifiques à utiliser ces données;
Dans PublicAI, les utilisateurs peuvent utiliser )Web3 comme étiquette de classification sur X et @PublicAI pour collecter des données.
Actuellement, Grass et OpenLayer envisagent tous deux d'intégrer l'étape clé de l'annotation des données.
Synesis a introduit le concept de « Train2earn », mettant l'accent sur la qualité des données, les utilisateurs peuvent obtenir des récompenses en fournissant des données annotées, des commentaires ou d'autres formes d'entrée.
Le projet de marquage de données Sapien gamifie les tâches de marquage et permet aux utilisateurs de miser des points pour en gagner davantage.
Les technologies de confidentialité actuellement courantes dans le Web3 incluent :
Environnement d'exécution de confiance ) TEE (, par exemple Super Protocol;
Chiffrement homomorphe complet ) FHE (, par exemple BasedAI, Fhenix.io ou Inco Network;
La technologie à connaissance nulle ) zk (, comme le protocole Reclaim qui utilise la technologie zkTLS, génère une preuve à connaissance nulle pour le trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des données d'activité, de réputation et d'identité depuis des sites externes sans exposer d'informations sensibles.
Cependant, ce domaine en est encore à ses débuts, la plupart des projets étant encore en phase d'exploration. Un des dilemmes actuels est le coût élevé du calcul, quelques exemples sont :
Le cadre zkML EZKL nécessite environ 80 minutes pour générer une preuve d'un modèle 1M-nanoGPT.
Selon les données de Modulus Labs, les coûts de zkML sont plus de 1000 fois supérieurs à ceux du calcul pur.