La intersección de la IA y DePIN: el auge de las redes GPU descentralizadas
Desde 2023, la IA y la Descentralización de Infraestructura Física (DePIN) han sido temas candentes en el ámbito de Web3, alcanzando una capitalización de mercado de 30,000 millones de dólares y 23,000 millones de dólares respectivamente. Este artículo explorará la intersección de ambos y examinará el desarrollo de los protocolos en este campo.
En la pila de tecnología de IA, la red DePIN proporciona utilidad a la IA a través de recursos de computación. El desarrollo de grandes empresas tecnológicas ha llevado a una escasez de GPU, lo que deja a otros desarrolladores sin suficientes GPU para realizar cálculos. Esto a menudo lleva a los desarrolladores a optar por proveedores de nube centralizados, pero debido a la necesidad de firmar contratos a largo plazo de hardware de alto rendimiento poco flexibles, se generan ineficiencias.
DePIN proporciona esencialmente una alternativa más flexible y rentable, utilizando recompensas en tokens para incentivar la contribución de recursos que cumplen con los objetivos de la red. En el ámbito de la IA, DePIN hace un llamado a los recursos de GPU de propietarios individuales a centros de datos, formando un suministro unificado para los usuarios que necesitan acceder al hardware. Estas redes DePIN no solo ofrecen personalización y acceso bajo demanda a los desarrolladores que necesitan capacidad de cálculo, sino que también proporcionan ingresos adicionales a los propietarios de GPU.
Resumen de la red DePIN de IA
Render es el pionero de una red P2P que ofrece capacidad de cálculo GPU, que anteriormente se centraba en renderizar gráficos para la creación de contenido, y luego amplió su alcance para incluir tareas de cálculo de IA desde campos de reflexión neural (NeRF) hasta IA generativa.
Interesante:
Fundada por la empresa de gráficos en la nube OTOY, que posee tecnología ganadora de un Oscar.
La red GPU ha sido utilizada por grandes empresas de la industria del entretenimiento como Paramount Pictures, PUBG y Star Trek.
Colaborar con Stability AI y Endeavor, utilizando la GPU de Render para integrar sus modelos de IA en el flujo de trabajo de renderizado de contenido 3D.
Aprobar múltiples clientes de cálculo, integrar más GPU de redes DePIN
Akash se posiciona como una alternativa de "súper nube" a las plataformas tradicionales que soportan almacenamiento, GPU y computación CPU. Aprovechando herramientas amigables para desarrolladores como la plataforma de contenedores Akash y nodos de computación gestionados por Kubernetes, puede desplegar software de manera fluida a través de entornos, lo que permite ejecutar cualquier aplicación nativa de la nube.
Interesante:
Para una amplia gama de tareas computacionales, desde la computación general hasta el alojamiento en red.
AkashML permite que su red GPU ejecute más de 15,000 modelos en Hugging Face, al mismo tiempo que se integra con Hugging Face.
Akash alberga algunas aplicaciones notables, como el chatbot del modelo LLM de Mistral AI, el modelo de texto a imagen SDXL de Stability AI, y el nuevo modelo base AT-1 de Thumper AI.
La plataforma para construir el metaverso, el despliegue de inteligencia artificial y el aprendizaje federado está utilizando Supercloud
io.net proporciona acceso a clústeres de GPU en la nube distribuidos, que están diseñados específicamente para casos de uso de IA y ML. Agrega GPU de centros de datos, mineros de criptomonedas y otras redes descentralizadas. La empresa era anteriormente una compañía de trading cuantitativo, y tras un aumento significativo en los precios de las GPU de alto rendimiento, la empresa se trasladó a su negocio actual.
Interesante:
Su IO-SDK es compatible con marcos como PyTorch y Tensorflow, y su arquitectura de múltiples capas puede expandirse dinámicamente según las necesidades de cálculo.
Soporta la creación de 3 tipos diferentes de clústeres, que se pueden iniciar en 2 minutos.
Esfuerzos de cooperación sólidos para integrar las GPU de otras redes DePIN, incluyendo Render, Filecoin, Aethir y Exabits.
Gensyn ofrece capacidades de computación GPU centradas en el aprendizaje automático y el aprendizaje profundo. Afirma que, en comparación con los métodos existentes, ha logrado un mecanismo de validación más eficiente al combinar conceptos como pruebas de trabajo de aprendizaje para la validación, protocolos de localización precisa basados en gráficos para la re-ejecución de trabajos de validación y juegos de incentivos estilo Truebit que implican la participación y reducción de proveedores de computación.
Interesante:
Se espera que el costo por hora de un GPU equivalente a V100 sea de aproximadamente 0.40 dólares / hora, lo que permitirá un ahorro significativo en costos.
A través de la apilación de pruebas, se puede ajustar un modelo base preentrenado para completar tareas más específicas.
Estos modelos básicos serán Descentralización, de propiedad global y ofrecerán funcionalidades adicionales además de la red de computación de hardware.
Aethir está diseñado específicamente para GPU empresariales, centrado en áreas de alta demanda computacional, principalmente inteligencia artificial, aprendizaje automático (ML), juegos en la nube, entre otros. Los contenedores en su red actúan como puntos finales virtuales que ejecutan aplicaciones basadas en la nube, trasladando la carga de trabajo desde dispositivos locales a los contenedores para lograr una experiencia de baja latencia. Para garantizar un servicio de calidad a los usuarios, acercan las GPU a las fuentes de datos según la demanda y la ubicación, ajustando así los recursos.
Interesante:
Además de la inteligencia artificial y los juegos en la nube, Aethir también se ha expandido a los servicios de teléfonos en la nube y ha colaborado con APhone para lanzar teléfonos inteligentes en la nube de Descentralización.
Se establecieron amplias asociaciones con grandes empresas de Web2 como NVIDIA, Super Micro, HPE, Foxconn y Well Link.
Varios socios en Web3, como CARV, Magic Eden, Sequence, Impossible Finance, etc.
Phala Network actúa como la capa de ejecución de soluciones de IA Web3. Su blockchain es una solución de computación en la nube sin necesidad de confianza, diseñada para abordar problemas de privacidad mediante el uso de su entorno de ejecución confiable (TEE). Su capa de ejecución no se utiliza como capa de computación para modelos de IA, sino que permite que los agentes de IA sean controlados por contratos inteligentes en la cadena.
Interesante:
Actuar como un protocolo de coprocesador de computación verificable, al mismo tiempo que permite a los agentes de IA acceder a recursos en la cadena.
Su contrato de agente de inteligencia artificial puede obtener modelos de lenguaje de gran tamaño de primer nivel como OpenAI, Llama, Claude y Hugging Face a través de Redpill.
El futuro incluirá zk-proofs, computación multipartita (MPC), cifrado totalmente homomórfico (FHE) y otros sistemas de múltiples pruebas.
En el futuro, se soportarán otras GPU TEE como H100, mejorando la capacidad de cálculo.
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Enfoque empresarial | Renderizado gráfico y AI | Computación en la nube, renderizado y AI | AI | AI | Inteligencia artificial, juegos en la nube y telecomunicaciones | Ejecución de AI en cadena |
| Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución |
| Precios de trabajo | Precios basados en el rendimiento | Subasta inversa | Precios de mercado | Precios de mercado | Sistema de licitación | Cálculo de derechos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidad de datos | Encriptación&hashing | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Encriptación | TEE |
| Costo de trabajo | 0.5-5% por cada trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costo de reserva | Costo bajo | 20% por sesión | Proporcional al monto en staking |
| Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé |
| Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo renderizado | Prueba TEE |
| Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo de verificación | Prueba remota |
| Clúster de GPU | No | Sí | Sí | Sí | Sí | No |
Importancia
Disponibilidad de clústeres y computación paralela
El marco de computación distribuida ha implementado un clúster de GPU, proporcionando un entrenamiento más eficiente sin afectar la precisión del modelo y, al mismo tiempo, mejorando la escalabilidad. Entrenar modelos de IA más complejos requiere una gran capacidad de cálculo, que a menudo debe depender de la computación distribuida para satisfacer sus necesidades. Desde una perspectiva más intuitiva, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y se entrenó en 3-4 meses utilizando aproximadamente 25,000 GPU Nvidia A100 en 128 clústeres.
Anteriormente, Render y Akash solo ofrecían GPU de un solo uso, lo que podría limitar su demanda en el mercado de GPU. Sin embargo, la mayoría de los proyectos clave ahora han integrado clústeres para realizar cálculos en paralelo. io.net ha colaborado con otros proyectos como Render, Filecoin y Aethir para incorporar más GPU a su red, y ha logrado implementar más de 3,800 clústeres en el primer trimestre de 24. Aunque Render no admite clústeres, su funcionamiento es similar al de un clúster, descomponiendo un solo fotograma en múltiples nodos diferentes para procesar simultáneamente diferentes rangos de fotogramas. Phala actualmente solo admite CPU, pero permite la agrupación de trabajadores de CPU.
Es muy importante integrar el marco de clúster en la red de flujo de trabajo de AI, pero la cantidad y el tipo de GPUs de clúster necesarios para satisfacer las necesidades de los desarrolladores de AI es un problema aparte, que discutiremos en las secciones posteriores.
Privacidad de datos
Desarrollar modelos de IA requiere el uso de grandes conjuntos de datos, que pueden provenir de diversas fuentes y adoptar diferentes formas. Los conjuntos de datos sensibles, como registros médicos personales y datos financieros de usuarios, pueden enfrentar el riesgo de exposición a los proveedores de modelos. Samsung prohibió internamente el uso de ChatGPT por temor a que la carga de códigos sensibles en la plataforma pudiera infringir la privacidad, y el incidente de filtración de 38TB de datos privados de Microsoft destaca aún más la importancia de tomar medidas de seguridad adecuadas al usar IA. Por lo tanto, contar con diversos métodos de privacidad de datos es crucial para devolver el control de los datos a los proveedores de datos.
La mayoría de los proyectos cubiertos utilizan alguna forma de cifrado de datos para proteger la privacidad de los datos. El cifrado de datos garantiza que la transmisión de datos desde el proveedor de datos hasta el modelo proveedor ( y el receptor de datos ) en la red esté protegida. Render utiliza cifrado y procesamiento hash al publicar los resultados de renderizado de vuelta a la red, mientras que io.net y Gensyn emplean alguna forma de cifrado de datos. Akash utiliza autenticación mTLS, permitiendo solo que los proveedores seleccionados por el inquilino reciban datos.
Sin embargo, io.net ha colaborado recientemente con Mind Network para lanzar la encriptación homomórfica completa (FHE), que permite procesar datos cifrados sin necesidad de descifrarlos primero. Al permitir que los datos se transmitan de manera segura para fines de entrenamiento sin revelar la identidad y el contenido de los datos, esta innovación puede garantizar la privacidad de los datos de manera más efectiva que las tecnologías de cifrado existentes.
Phala Network introdujo TEE, que es una zona segura en el procesador principal del dispositivo conectado. A través de este mecanismo de aislamiento, puede prevenir que los procesos externos accedan o modifiquen los datos, independientemente de su nivel de permisos, incluso para personas con acceso físico a la máquina. Además de TEE, también combina el uso de zk-proofs en su validador zkDCAP y la interfaz de línea de comandos jtee, para integrarse con programas del RiscZero zkVM.
Prueba de cálculo completada y control de calidad
Estos proyectos ofrecen GPU que pueden proporcionar potencia de cálculo para una variedad de servicios. Dado que estos servicios son muy diversos, desde la renderización de gráficos hasta el cálculo de IA, la calidad final de tales tareas puede no siempre cumplir con los estándares del usuario. Se puede utilizar un comprobante de finalización para indicar que la GPU específica alquilada por el usuario se ha utilizado efectivamente para ejecutar los servicios requeridos, y la verificación de calidad es beneficiosa para los usuarios que solicitan la finalización de tales trabajos.
Después de completar el cálculo, tanto Gensyn como Aethir generarán pruebas para indicar que el trabajo ha sido completado, mientras que la prueba de io.net indica que el rendimiento de la GPU alquilada se ha utilizado de manera óptima y no ha habido problemas. Gensyn y Aethir realizarán un control de calidad sobre los cálculos completados. Para Gensyn, utiliza un validador para volver a ejecutar partes del contenido de la prueba generada y compararlas con la prueba, mientras que el informante actúa como un control adicional sobre el validador. Al mismo tiempo, Aethir utiliza nodos de verificación para determinar la calidad del servicio y penaliza los servicios que están por debajo de los estándares. Render sugiere usar un proceso de resolución de disputas, y si el comité de revisión encuentra problemas con un nodo, se reducirá ese nodo. Phala generará una prueba TEE una vez completado, asegurando que el agente de IA ejecute las operaciones requeridas en la cadena.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
5
Compartir
Comentar
0/400
BottomMisser
· hace2h
La GPU actualmente está un poco agotada.
Ver originalesResponder0
MetaverseLandlord
· 07-22 17:44
¿Quién dice que ganar dinero no se puede hacer de manera seria? ¡Vamos a por ello, esta vez es seguro!
Ver originalesResponder0
FlashLoanLarry
· 07-22 17:38
smh estas jugadas de depin son solo computación en la nube elegante, para ser honesto... pero la relación de eficiencia de capital se ve un poco jugosa, no voy a mentir
Ver originalesResponder0
LongTermDreamer
· 07-22 17:36
Haha, dentro de tres años recuperaré la inversión con una Rig de Minera.
AI y DePIN: El auge de las redes GPU descentralizadas y comparación con proyectos principales
La intersección de la IA y DePIN: el auge de las redes GPU descentralizadas
Desde 2023, la IA y la Descentralización de Infraestructura Física (DePIN) han sido temas candentes en el ámbito de Web3, alcanzando una capitalización de mercado de 30,000 millones de dólares y 23,000 millones de dólares respectivamente. Este artículo explorará la intersección de ambos y examinará el desarrollo de los protocolos en este campo.
En la pila de tecnología de IA, la red DePIN proporciona utilidad a la IA a través de recursos de computación. El desarrollo de grandes empresas tecnológicas ha llevado a una escasez de GPU, lo que deja a otros desarrolladores sin suficientes GPU para realizar cálculos. Esto a menudo lleva a los desarrolladores a optar por proveedores de nube centralizados, pero debido a la necesidad de firmar contratos a largo plazo de hardware de alto rendimiento poco flexibles, se generan ineficiencias.
DePIN proporciona esencialmente una alternativa más flexible y rentable, utilizando recompensas en tokens para incentivar la contribución de recursos que cumplen con los objetivos de la red. En el ámbito de la IA, DePIN hace un llamado a los recursos de GPU de propietarios individuales a centros de datos, formando un suministro unificado para los usuarios que necesitan acceder al hardware. Estas redes DePIN no solo ofrecen personalización y acceso bajo demanda a los desarrolladores que necesitan capacidad de cálculo, sino que también proporcionan ingresos adicionales a los propietarios de GPU.
Resumen de la red DePIN de IA
Render es el pionero de una red P2P que ofrece capacidad de cálculo GPU, que anteriormente se centraba en renderizar gráficos para la creación de contenido, y luego amplió su alcance para incluir tareas de cálculo de IA desde campos de reflexión neural (NeRF) hasta IA generativa.
Interesante:
Fundada por la empresa de gráficos en la nube OTOY, que posee tecnología ganadora de un Oscar.
La red GPU ha sido utilizada por grandes empresas de la industria del entretenimiento como Paramount Pictures, PUBG y Star Trek.
Colaborar con Stability AI y Endeavor, utilizando la GPU de Render para integrar sus modelos de IA en el flujo de trabajo de renderizado de contenido 3D.
Aprobar múltiples clientes de cálculo, integrar más GPU de redes DePIN
Akash se posiciona como una alternativa de "súper nube" a las plataformas tradicionales que soportan almacenamiento, GPU y computación CPU. Aprovechando herramientas amigables para desarrolladores como la plataforma de contenedores Akash y nodos de computación gestionados por Kubernetes, puede desplegar software de manera fluida a través de entornos, lo que permite ejecutar cualquier aplicación nativa de la nube.
Interesante:
Para una amplia gama de tareas computacionales, desde la computación general hasta el alojamiento en red.
AkashML permite que su red GPU ejecute más de 15,000 modelos en Hugging Face, al mismo tiempo que se integra con Hugging Face.
Akash alberga algunas aplicaciones notables, como el chatbot del modelo LLM de Mistral AI, el modelo de texto a imagen SDXL de Stability AI, y el nuevo modelo base AT-1 de Thumper AI.
La plataforma para construir el metaverso, el despliegue de inteligencia artificial y el aprendizaje federado está utilizando Supercloud
io.net proporciona acceso a clústeres de GPU en la nube distribuidos, que están diseñados específicamente para casos de uso de IA y ML. Agrega GPU de centros de datos, mineros de criptomonedas y otras redes descentralizadas. La empresa era anteriormente una compañía de trading cuantitativo, y tras un aumento significativo en los precios de las GPU de alto rendimiento, la empresa se trasladó a su negocio actual.
Interesante:
Su IO-SDK es compatible con marcos como PyTorch y Tensorflow, y su arquitectura de múltiples capas puede expandirse dinámicamente según las necesidades de cálculo.
Soporta la creación de 3 tipos diferentes de clústeres, que se pueden iniciar en 2 minutos.
Esfuerzos de cooperación sólidos para integrar las GPU de otras redes DePIN, incluyendo Render, Filecoin, Aethir y Exabits.
Gensyn ofrece capacidades de computación GPU centradas en el aprendizaje automático y el aprendizaje profundo. Afirma que, en comparación con los métodos existentes, ha logrado un mecanismo de validación más eficiente al combinar conceptos como pruebas de trabajo de aprendizaje para la validación, protocolos de localización precisa basados en gráficos para la re-ejecución de trabajos de validación y juegos de incentivos estilo Truebit que implican la participación y reducción de proveedores de computación.
Interesante:
Se espera que el costo por hora de un GPU equivalente a V100 sea de aproximadamente 0.40 dólares / hora, lo que permitirá un ahorro significativo en costos.
A través de la apilación de pruebas, se puede ajustar un modelo base preentrenado para completar tareas más específicas.
Estos modelos básicos serán Descentralización, de propiedad global y ofrecerán funcionalidades adicionales además de la red de computación de hardware.
Aethir está diseñado específicamente para GPU empresariales, centrado en áreas de alta demanda computacional, principalmente inteligencia artificial, aprendizaje automático (ML), juegos en la nube, entre otros. Los contenedores en su red actúan como puntos finales virtuales que ejecutan aplicaciones basadas en la nube, trasladando la carga de trabajo desde dispositivos locales a los contenedores para lograr una experiencia de baja latencia. Para garantizar un servicio de calidad a los usuarios, acercan las GPU a las fuentes de datos según la demanda y la ubicación, ajustando así los recursos.
Interesante:
Además de la inteligencia artificial y los juegos en la nube, Aethir también se ha expandido a los servicios de teléfonos en la nube y ha colaborado con APhone para lanzar teléfonos inteligentes en la nube de Descentralización.
Se establecieron amplias asociaciones con grandes empresas de Web2 como NVIDIA, Super Micro, HPE, Foxconn y Well Link.
Varios socios en Web3, como CARV, Magic Eden, Sequence, Impossible Finance, etc.
Phala Network actúa como la capa de ejecución de soluciones de IA Web3. Su blockchain es una solución de computación en la nube sin necesidad de confianza, diseñada para abordar problemas de privacidad mediante el uso de su entorno de ejecución confiable (TEE). Su capa de ejecución no se utiliza como capa de computación para modelos de IA, sino que permite que los agentes de IA sean controlados por contratos inteligentes en la cadena.
Interesante:
Actuar como un protocolo de coprocesador de computación verificable, al mismo tiempo que permite a los agentes de IA acceder a recursos en la cadena.
Su contrato de agente de inteligencia artificial puede obtener modelos de lenguaje de gran tamaño de primer nivel como OpenAI, Llama, Claude y Hugging Face a través de Redpill.
El futuro incluirá zk-proofs, computación multipartita (MPC), cifrado totalmente homomórfico (FHE) y otros sistemas de múltiples pruebas.
En el futuro, se soportarán otras GPU TEE como H100, mejorando la capacidad de cálculo.
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Enfoque empresarial | Renderizado gráfico y AI | Computación en la nube, renderizado y AI | AI | AI | Inteligencia artificial, juegos en la nube y telecomunicaciones | Ejecución de AI en cadena | | Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución | | Precios de trabajo | Precios basados en el rendimiento | Subasta inversa | Precios de mercado | Precios de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidad de datos | Encriptación&hashing | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Encriptación | TEE | | Costo de trabajo | 0.5-5% por cada trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costo de reserva | Costo bajo | 20% por sesión | Proporcional al monto en staking | | Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé | | Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo renderizado | Prueba TEE | | Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo de verificación | Prueba remota | | Clúster de GPU | No | Sí | Sí | Sí | Sí | No |
Importancia
Disponibilidad de clústeres y computación paralela
El marco de computación distribuida ha implementado un clúster de GPU, proporcionando un entrenamiento más eficiente sin afectar la precisión del modelo y, al mismo tiempo, mejorando la escalabilidad. Entrenar modelos de IA más complejos requiere una gran capacidad de cálculo, que a menudo debe depender de la computación distribuida para satisfacer sus necesidades. Desde una perspectiva más intuitiva, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y se entrenó en 3-4 meses utilizando aproximadamente 25,000 GPU Nvidia A100 en 128 clústeres.
Anteriormente, Render y Akash solo ofrecían GPU de un solo uso, lo que podría limitar su demanda en el mercado de GPU. Sin embargo, la mayoría de los proyectos clave ahora han integrado clústeres para realizar cálculos en paralelo. io.net ha colaborado con otros proyectos como Render, Filecoin y Aethir para incorporar más GPU a su red, y ha logrado implementar más de 3,800 clústeres en el primer trimestre de 24. Aunque Render no admite clústeres, su funcionamiento es similar al de un clúster, descomponiendo un solo fotograma en múltiples nodos diferentes para procesar simultáneamente diferentes rangos de fotogramas. Phala actualmente solo admite CPU, pero permite la agrupación de trabajadores de CPU.
Es muy importante integrar el marco de clúster en la red de flujo de trabajo de AI, pero la cantidad y el tipo de GPUs de clúster necesarios para satisfacer las necesidades de los desarrolladores de AI es un problema aparte, que discutiremos en las secciones posteriores.
Privacidad de datos
Desarrollar modelos de IA requiere el uso de grandes conjuntos de datos, que pueden provenir de diversas fuentes y adoptar diferentes formas. Los conjuntos de datos sensibles, como registros médicos personales y datos financieros de usuarios, pueden enfrentar el riesgo de exposición a los proveedores de modelos. Samsung prohibió internamente el uso de ChatGPT por temor a que la carga de códigos sensibles en la plataforma pudiera infringir la privacidad, y el incidente de filtración de 38TB de datos privados de Microsoft destaca aún más la importancia de tomar medidas de seguridad adecuadas al usar IA. Por lo tanto, contar con diversos métodos de privacidad de datos es crucial para devolver el control de los datos a los proveedores de datos.
La mayoría de los proyectos cubiertos utilizan alguna forma de cifrado de datos para proteger la privacidad de los datos. El cifrado de datos garantiza que la transmisión de datos desde el proveedor de datos hasta el modelo proveedor ( y el receptor de datos ) en la red esté protegida. Render utiliza cifrado y procesamiento hash al publicar los resultados de renderizado de vuelta a la red, mientras que io.net y Gensyn emplean alguna forma de cifrado de datos. Akash utiliza autenticación mTLS, permitiendo solo que los proveedores seleccionados por el inquilino reciban datos.
Sin embargo, io.net ha colaborado recientemente con Mind Network para lanzar la encriptación homomórfica completa (FHE), que permite procesar datos cifrados sin necesidad de descifrarlos primero. Al permitir que los datos se transmitan de manera segura para fines de entrenamiento sin revelar la identidad y el contenido de los datos, esta innovación puede garantizar la privacidad de los datos de manera más efectiva que las tecnologías de cifrado existentes.
Phala Network introdujo TEE, que es una zona segura en el procesador principal del dispositivo conectado. A través de este mecanismo de aislamiento, puede prevenir que los procesos externos accedan o modifiquen los datos, independientemente de su nivel de permisos, incluso para personas con acceso físico a la máquina. Además de TEE, también combina el uso de zk-proofs en su validador zkDCAP y la interfaz de línea de comandos jtee, para integrarse con programas del RiscZero zkVM.
Prueba de cálculo completada y control de calidad
Estos proyectos ofrecen GPU que pueden proporcionar potencia de cálculo para una variedad de servicios. Dado que estos servicios son muy diversos, desde la renderización de gráficos hasta el cálculo de IA, la calidad final de tales tareas puede no siempre cumplir con los estándares del usuario. Se puede utilizar un comprobante de finalización para indicar que la GPU específica alquilada por el usuario se ha utilizado efectivamente para ejecutar los servicios requeridos, y la verificación de calidad es beneficiosa para los usuarios que solicitan la finalización de tales trabajos.
Después de completar el cálculo, tanto Gensyn como Aethir generarán pruebas para indicar que el trabajo ha sido completado, mientras que la prueba de io.net indica que el rendimiento de la GPU alquilada se ha utilizado de manera óptima y no ha habido problemas. Gensyn y Aethir realizarán un control de calidad sobre los cálculos completados. Para Gensyn, utiliza un validador para volver a ejecutar partes del contenido de la prueba generada y compararlas con la prueba, mientras que el informante actúa como un control adicional sobre el validador. Al mismo tiempo, Aethir utiliza nodos de verificación para determinar la calidad del servicio y penaliza los servicios que están por debajo de los estándares. Render sugiere usar un proceso de resolución de disputas, y si el comité de revisión encuentra problemas con un nodo, se reducirá ese nodo. Phala generará una prueba TEE una vez completado, asegurando que el agente de IA ejecute las operaciones requeridas en la cadena.
Datos estadísticos de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|