Lanzamiento de la prueba pública de la red Mira para construir una capa de confianza en IA que reduzca los sesgos y las alucinaciones.

robot
Generación de resúmenes en curso

Nueva prueba de la capa de confianza de IA: Lanzamiento de la red pública Testnet de Mira

Recientemente, una red pública de pruebas llamada Mira se ha lanzado oficialmente. El objetivo de este proyecto es construir una capa de confianza para la IA, con el fin de abordar algunos de los desafíos clave que enfrentan los sistemas de IA en la actualidad. Entonces, ¿por qué necesita la IA establecer confianza y cómo aborda Mira este problema?

En el campo de la IA, a menudo se presta más atención a su poderosa capacidad. Sin embargo, una cuestión interesante pero menos discutida es la "ilusión" o sesgo de la IA. Lo que se conoce como "ilusión" de la IA, en términos simples, es que a veces la IA "inventa" información, afirmando cosas que parecen razonables pero que en realidad no tienen fundamento. Por ejemplo, si le preguntas a la IA por qué la luna es rosa, puede ofrecer una serie de explicaciones que parecen razonables pero que en realidad no tienen ningún fundamento.

La aparición de "alucinaciones" o sesgos en la IA está relacionada con algunas de las rutas tecnológicas actuales de la IA. Por ejemplo, la IA generativa logra la coherencia y razonabilidad de la salida al predecir el contenido "más probable", pero este método a veces es difícil de verificar en cuanto a su veracidad. Además, los datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la calidad de la salida de la IA. En otras palabras, la IA aprende patrones de lenguaje humano, no hechos en sí mismos.

El mecanismo de generación de probabilidades actual y el modelo impulsado por datos prácticamente inevitablemente conducen a que la IA produzca "ilusiones". Para contenido de conocimiento general o entretenimiento, esta salida sesgada o ilusa puede no tener consecuencias directas de inmediato. Pero si ocurre en campos que requieren una alta rigurosidad, como la medicina, el derecho, la aviación o las finanzas, puede tener consecuencias graves. Por lo tanto, cómo abordar el problema de las ilusiones y sesgos de la IA se ha convertido en uno de los problemas centrales en el proceso de desarrollo de la IA.

Actualmente, hay varias soluciones en la industria. Algunas utilizan tecnología de generación aumentada por búsqueda, combinando IA con bases de datos en tiempo real para priorizar la salida de hechos verificados. Otras introducen retroalimentación humana, corrigiendo los errores del modelo a través de anotaciones y supervisión manual.

El proyecto Mira también está intentando abordar los problemas de sesgo e ilusiones en la IA. Su idea central es reducir el sesgo y las ilusiones de la IA construyendo una capa de confianza para mejorar la fiabilidad de la IA. Entonces, ¿cómo logra Mira este objetivo?

La idea central de Mira es validar la salida de IA a través del consenso de múltiples modelos de IA. Mira es esencialmente una red de verificación que utiliza el consenso de varios modelos de IA para validar la fiabilidad de la salida de IA. Además, Mira también introduce el consenso descentralizado para llevar a cabo la verificación.

La clave de la red Mira radica en la validación de consenso descentralizada. Este enfoque se basa en tecnologías del ámbito criptográfico, al tiempo que aprovecha las ventajas de la colaboración de múltiples modelos, mediante un modo de verificación colectiva para reducir sesgos y alucinaciones.

En términos de arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones independientes y verificables. Estas declaraciones requieren la participación de los operadores de nodos en la verificación. Para garantizar la honestidad de los operadores de nodos, Mira adopta un mecanismo de incentivos / penalizaciones criptográficas. Diferentes modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de la verificación.

La arquitectura de la red de Mira incluye conversión de contenido, validación distribuida y mecanismos de consenso para lograr la fiabilidad de la verificación. En esta arquitectura, la conversión de contenido es un eslabón importante. La red de Mira primero descompone el contenido candidato (generalmente enviado por los clientes) en diferentes declaraciones verificables para asegurarse de que el modelo pueda entender el contenido en el mismo contexto. Estas declaraciones son distribuidas por el sistema a los nodos para su verificación, a fin de determinar la validez de las declaraciones y resumir los resultados para alcanzar un consenso. Finalmente, estos resultados y consensos se devuelven a los clientes. Para proteger la privacidad del cliente, el contenido candidato se convierte y descompone en pares de declaraciones y se distribuye a diferentes nodos de manera fragmentada aleatoriamente, para evitar la filtración de información durante el proceso de verificación.

Los operadores de nodos son responsables de ejecutar el modelo de validadores, procesar declaraciones y presentar resultados de validación. Están dispuestos a participar en la validación porque pueden obtener beneficios. Estos beneficios provienen del valor creado para los clientes. El objetivo de la red Mira es reducir la tasa de errores de la IA (reducir ilusiones y sesgos), y una vez que se logre este objetivo, podrá generar un gran valor en campos como la medicina, el derecho, la aviación y las finanzas. Por lo tanto, los clientes están dispuestos a pagar por ello. Por supuesto, la sostenibilidad y el tamaño del pago dependen de si la red Mira puede seguir aportando valor a los clientes. Para prevenir comportamientos especulativos de respuesta aleatoria de nodos, aquellos que se desvíen continuamente del consenso verán reducidos sus tokens de staking. En general, Mira asegura la participación honesta de los operadores de nodos en la validación a través del juego de mecanismos económicos.

Mira ha proporcionado una nueva perspectiva para lograr la confiabilidad de la IA: construir una red de verificación de consenso descentralizada sobre múltiples modelos de IA, lo que aporta mayor confiabilidad a los servicios de IA de los clientes, reduce los sesgos y alucinaciones de la IA, y satisface la demanda de los clientes por mayor exactitud y precisión. Al mismo tiempo, genera beneficios para los participantes de la red de Mira, basándose en la creación de valor para los clientes. En resumen, Mira está intentando construir una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.

Actualmente, los usuarios pueden participar en la Testnet de Mira a través de Klok. Klok es una aplicación de chat LLM basada en Mira, donde los usuarios pueden experimentar salidas de IA verificadas y comparar la diferencia con las salidas de IA no verificadas. Los participantes también pueden ganar puntos de Mira, aunque el futuro uso de estos puntos aún no se ha anunciado.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 2
  • Compartir
Comentar
0/400
SillyWhalevip
· 07-29 02:07
Interesante, vamos a ver primero
Ver originalesResponder0
NftRegretMachinevip
· 07-28 12:19
Hay aspectos destacados, pero aún se necesita observar.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)