Entrevista | Las grandes empresas tecnológicas están entrenando a la IA con datos basura: Intuición

Los modelos de IA son cada vez más potentes, pero los datos en los que se entrenan están empeorando, dice el fundador de Intuition, Billy Luedtke. Resumen

  • La IA es tan buena como los datos que le proporcionamos, dice Billy Luedtke, fundador de Intuition.
  • Estamos en una era de “entrar y salir” como la IA se vuelve recursiva
  • Los modelos descentralizados tienen la ventaja en tecnología y experiencia del usuario

A medida que los sistemas de IA se vuelven más omnipresentes, los usuarios se encuentran cada vez más con limitaciones que son difíciles de solucionar. Mientras los modelos mejoran, los datos subyacentes sobre los que se entrenan estos modelos siguen siendo los mismos. Además, la recursión, o modelos de IA que se entrenan con datos generados por otras IA, podría en realidad empeorar la situación.

Para hablar sobre el futuro de la IA, crypto.news habló con Billy Luedtke, fundador de Intuition, un protocolo descentralizado enfocado en traer atribución verificable, reputación y propiedad de datos a la IA. Luedtke explica por qué los conjuntos de datos actuales para la IA son fundamentalmente defectuosos y qué se puede hacer para solucionarlo.

Crypto.news: Todo el mundo en este momento está enfocado en la infraestructura de IA — GPUs, energía, centros de datos. ¿Están las personas subestimando la importancia de la capa de confianza en la IA? ¿Por qué es importante?

Billy Luedtke: 100%. La gente definitivamente lo está subestimando — y eso importa por varias razones.

Primero, estamos entrando en lo que yo llamo una era de “entrar desordenadamente, salir desordenadamente”. La IA es tan buena como los datos que consume. Pero esos datos — especialmente los de la web abierta — están en gran medida contaminados. No son limpios. No reflejan la intención humana. Gran parte proviene de comportamientos gamificados en línea: me gusta, reseñas, trucos de participación — todo filtrado a través de algoritmos optimizados para la atención.

Así que cuando la IA rastrea internet, lo que ve no es una imagen holística de quiénes somos. Está viendo a las personas jugar con la plataforma. No me comporto de la misma manera en Twitter que en la vida real. Ninguno de nosotros lo hace. Estamos optimizando para el algoritmo — no expresando un pensamiento genuino.

Es recursivo, también. Las plataformas nos entrenan, y nosotros alimentamos más comportamientos distorsionados. Eso crea un bucle de retroalimentación — una espiral — que distorsiona aún más la percepción de la IA sobre la humanidad. No le estamos enseñando lo que pensamos; le estamos enseñando lo que creemos que obtendrá 'me gusta'.

El usuario promedio no está buscando en Google, comparando fuentes o pensando críticamente. Simplemente está preguntando a ChatGPT u otro modelo y tomando la respuesta al pie de la letra.

Eso es peligroso. Si el modelo es opaco — una caja negra — y la empresa que lo controla también controla qué información se te muestra o no, entonces eso es un control narrativo total. Es centralizado, no responsable y extremadamente poderoso.

Imagina preguntar a Grok por el mejor podcast, y la respuesta es quien le pagó más a Elon. Eso no es inteligencia — es solo publicidad disfrazada.

CN: ¿Entonces cómo lo solucionamos? ¿Cómo construimos sistemas que prioricen la verdad y el valor en lugar de la participación?

BL: Necesitamos cambiar los incentivos. Estos sistemas deben servir a las personas — no a las instituciones, no a los accionistas, no a los anunciantes. Eso significa construir una nueva capa para internet: primitivas de identidad y reputación. Eso es lo que estamos haciendo en Intuition.

Necesitamos una atribución verificable: quién dijo qué, cuándo y en qué contexto. Y necesitamos una reputación portátil y descentralizada que ayude a determinar cuánto podemos confiar en cualquier fuente de datos dada — no basado en la vibra, sino en un historial contextual real.

Reddit es un ejemplo perfecto. Es una de las fuentes más grandes de datos de entrenamiento para modelos. Pero si un usuario dice sarcásticamente, “Solo k*** tú mismo,” eso puede ser extraído y aparecer en la recomendación de un modelo para alguien que pide consejo médico.

Eso es aterrador — y es lo que sucede cuando los modelos no tienen contexto, atribución o peso de reputación. Necesitamos saber: ¿Es esta persona creíble en medicina? ¿Es de confianza en finanzas? ¿Es esta una fuente confiable, o solo otro comentario aleatorio?

CN: Cuando hablas sobre atribución y reputación, estos datos necesitan ser almacenados en algún lugar. ¿Cómo piensas en eso en términos de infraestructura — especialmente con problemas como derechos de autor y compensación?

BL: Eso es exactamente lo que estamos resolviendo en Intuition. Una vez que tienes primitivas de atribución verificables, sabes quién creó qué datos. Eso permite la propiedad tokenizada del conocimiento — y con eso, la compensación.

Así que en lugar de que tus datos residan en los servidores de Google o en las APIs de OpenAI, viven en un grafo de conocimiento descentralizado. Todos son dueños de lo que contribuyen. Cuando tus datos son utilizados o recorridos en una salida de IA, recibes una parte del valor que genera.

Eso importa porque ahora mismo somos siervos digitales. Gastamos nuestros recursos más valiosos — tiempo, atención y creatividad — generando datos que alguien más monetiza. YouTube no es valioso porque aloja videos; es valioso porque las personas lo curan. Sin me gusta, comentarios o suscripciones, YouTube no tiene valor.

Así que queremos un mundo donde todos puedan ganar a partir del valor que generan — incluso si no eres un influencer o extrovertido. Si eres consistentemente el primero en encontrar nuevos artistas, por ejemplo, tu gusto tiene valor. Deberías poder construir una reputación en torno a eso y monetizarla.

CN: Pero incluso si obtenemos transparencia, estos modelos son realmente difíciles de interpretar. OpenAI no puede explicar completamente cómo sus modelos toman decisiones. ¿Qué pasa entonces?

BL: Gran punto. No podemos interpretar completamente el comportamiento del modelo — son demasiado complejos. Pero lo que podemos controlar es los datos de entrenamiento. Esa es nuestra palanca.

Te daré un ejemplo: escuché sobre un artículo de investigación donde una IA estaba obsesionada con los búhos y otra era excelente en matemáticas. Solo se entrenaron juntas en tareas relacionadas con matemáticas. Pero al final, la IA de matemáticas también comenzó a amar los búhos, solo absorbiendo el patrón de la otra.

Es una locura lo subliminal y sutil que son estos patrones. Así que la única defensa real es la intención. Necesitamos ser deliberados sobre qué datos alimentamos a estos modelos. Necesitamos “sanarnos a nosotros mismos”, de alguna manera, para presentarnos en línea de una manera más auténtica y constructiva. Porque la IA siempre reflejará los valores y distorsiones de sus creadores.

CN: Hablemos de negocios. OpenAI está quemando efectivo. Su infraestructura es extremadamente cara. ¿Cómo puede un sistema descentralizado como Intuition competir — financiera y técnicamente?

BL: Hay dos ventajas clave que tenemos: composabilidad y coordinación.

Los ecosistemas descentralizados — especialmente en crypto — son increíblemente buenos en la coordinación. Tenemos equipos globales y distribuidos trabajando en diferentes componentes del mismo problema más grande. En lugar de que una empresa queme miles de millones luchando contra el mundo, tenemos cientos de contribuyentes alineados construyendo herramientas interoperables.

Es como un mosaico. Un equipo trabaja en la reputación de agentes, otro en almacenamiento descentralizado, otro en primitivas de identidad — y podemos unir esos elementos.

Ese es el superpoder.

La segunda ventaja es la experiencia del usuario. OpenAI está atrapado en su foso. No pueden permitirte transferir tu contexto de ChatGPT a Grok o Anthropic — eso erosionaría su defendibilidad. Pero no nos importa el bloqueo del proveedor.

En nuestro sistema, podrás poseer tu contexto, llevártelo contigo y conectarlo a cualquier agente que desees. Eso hace que la experiencia sea mejor. La gente lo elegirá.

****CN:¿Qué pasa con los costos de infraestructura? Ejecutar modelos grandes es extremadamente costoso. ¿Ves un mundo donde modelos más pequeños se ejecuten localmente?

BL: Sí, 100%. De hecho, creo que hacia allí es donde nos dirigimos — hacia muchos modelos pequeños funcionando localmente, conectados como neuronas en un enjambre distribuido.

En lugar de un gran centro de datos monolítico, tienes miles de millones de dispositivos de consumo que contribuyen con computación. Si podemos coordinarles — que es en lo que la criptografía sobresale — eso se convierte en una arquitectura superior.

Y esta es la razón por la que también estamos construyendo capas de reputación de agentes. Las solicitudes pueden ser dirigidas al agente especializado adecuado para el trabajo. No necesitas un modelo masivo para hacer todo. Solo necesitas un sistema inteligente para la asignación de tareas — como una capa API a través de millones de agentes.

CN: ¿Qué pasa con el determinismo? Los LLMs no son excelentes para tareas como las matemáticas, donde se desean respuestas exactas. ¿Podemos combinar código determinista con IA?

BL: Eso es lo que quiero. Necesitamos devolver el determinismo al bucle.

Comenzamos con el razonamiento simbólico — totalmente determinista — y luego nos lanzamos con fuerza hacia el aprendizaje profundo, que es no determinista. Eso nos dio la explosión que estamos viendo ahora. Pero el futuro es neurosimbólico — combinando lo mejor de ambos.

Deja que la IA maneje el razonamiento difuso. Pero también deja que active módulos deterministas — scripts, funciones, motores lógicos — donde necesitas precisión. Piensa: “¿Cuál de mis amigos le gusta este restaurante?” Eso debería ser 100% determinista.

****CN:Ampliando la perspectiva: hemos visto a las empresas integrar IA en sus operaciones. Pero los resultados han sido mixtos. ¿Crees que la generación actual de LLM realmente impulsa la productividad?

BL: Absolutamente. La singularidad ya está aquí — simplemente está distribuida de manera desigual.

Si no estás utilizando IA en tu flujo de trabajo, especialmente para código o contenido, estás trabajando a una fracción de la velocidad de los demás. La tecnología es real y las ganancias de eficiencia son enormes. La disrupción ya ha ocurrido. La gente simplemente no se ha dado cuenta completamente aún.

CN: Pregunta final. Mucha gente dice que esto es una burbuja. El capital de riesgo se está agotando. OpenAI está quemando dinero. Nvidia está financiando a sus propios clientes. ¿Cómo termina esto?

BL: Sí, hay una burbuja — pero la tecnología es real. Cada burbuja explota, pero lo que queda después son las tecnologías fundamentales. La IA va a ser una de ellas. El dinero tonto — todas esas aplicaciones superficiales sin innovación real — eso se está desechando. Pero los equipos de infraestructura profunda? Sobrevivirán.

De hecho, esto podría ir de dos maneras: tenemos una corrección suave y volvemos a la realidad, pero el progreso continúa. O, las ganancias de productividad son tan inmensas que la IA se convierte en una fuerza deflacionaria en la economía. El PIB podría aumentar 10 o 100 veces en capacidad de producción. Si eso sucede, el gasto valió la pena — mejoramos como sociedad.

De cualquier manera, soy optimista. Habrá caos y desplazamiento laboral, sí — pero también el potencial para un mundo abundante y post-escasez si construimos la base correcta.

ON-12.36%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)