La pelea del Pentágono con Anthropic fue la primera prueba real de cómo controlaremos la inteligencia artificial poderosa. La mala noticia: todos fallamos
Hola y bienvenido a Eye on AI. En esta edición… La pelea del Pentágono con Anthropic plantea tres preguntas cruciales… OpenAI obtiene 110 mil millones de dólares en nueva financiación… Meta experimenta con un asistente de compras con IA… Los modelos de lenguaje grande pueden identificar usuarios pseudónimos en internet a gran escala… centros de datos en las líneas frontales en la guerra de Irán.
Vídeo recomendado
La historia más importante en IA en este momento, sin duda, es la pelea entre el Departamento de Guerra de EE. UU. y Anthropic. Si no has estado siguiendo el drama, puedes ponerte al día leyendo las coberturas de mí y mis colegas de Fortune aquí, aquí, aquí, aquí, aquí y aquí.
Esta historia plantea al menos tres preguntas críticas: ¿quién debería tener el control sobre cómo se usa la IA en una sociedad democrática? ¿Cómo debería ejercerse ese control? ¿Cuáles deberían ser las consecuencias para una empresa que discrepa con la política del gobierno?
Sea cual sea tu opinión sobre el CEO de OpenAI, Sam Altman, y su decisión de intervenir y firmar un acuerdo con el Pentágono—incluyendo una obligación contractual de permitir que el ejército use los modelos de IA de OpenAI “para cualquier propósito legal” que Anthropic se negó a aceptar—Altman identificó correctamente lo que está en juego en esta pelea.
En una sesión de “Pregúntame lo que quieras” en X durante el fin de semana, Altman dijo:
Un punto realmente importante: no somos elegidos. Tenemos un proceso democrático donde elegimos a nuestros líderes. Tenemos experiencia con la tecnología y entendemos sus limitaciones, pero creo que deberías estar aterrorizado de que una empresa privada decida qué es ético y qué no en las áreas más importantes. Parece bien que decidamos cómo ChatGPT debería responder a una pregunta controvertida. Pero realmente no quiero que decidamos qué hacer si una bomba nuclear se dirige hacia EE. UU.
Este fue el núcleo de la objeción declarada del Pentágono al contrato existente con Anthropic. El ejército no consideraba correcto que una empresa privada dicte políticas a un gobierno elegido.
La IA se mueve a la velocidad de la luz, el Congreso a paso de tortuga
La mayoría de los estadounidenses podrían estar de acuerdo con la posición del Pentágono—en principio. Pero en la práctica, la situación se complica por tres cosas. Primero, la tecnología de IA avanza extremadamente rápido, pero los mecanismos de control democrático—legislación, supervisión del Congreso, elecciones—se mueven muy lentamente. En los tres años desde que debutó ChatGPT, el Congreso no ha aprobado ninguna legislación federal sobre IA. La Administración Trump desmanteló regulaciones limitadas de IA implementadas por su predecesor, además de actuar para castigar a los estados que aprueban sus propias regulaciones de IA.
Así que, aunque muchos puedan estar de acuerdo en que las políticas sobre el uso de IA por parte del gobierno deberían ser establecidas por funcionarios electos, existe el problema práctico de qué hacer cuando esos representantes electos no actúan. La idea de llegar a una política de IA mediante negociaciones contractuales entre laboratorios y el gobierno es un sustituto pobre de una verdadera gobernanza democrática, pero podría ser mejor que ninguna gobernanza. La controversia sobre el contrato del Pentágono con Anthropic debería ser una llamada de atención para que el Congreso actúe.
En segundo lugar, la tendencia de los gobiernos en las últimas décadas ha sido interpretar las leyes existentes de manera amplia para ampliar el poder del Estado en el uso de tecnología para vigilar a sus ciudadanos. (La historia ha sido una de la rama ejecutiva recuperando gradualmente poderes de vigilancia que perdió tras los escándalos de Watergate y las audiencias del Comité de la Iglesia en los años 70). Muchas actividades militares también están envueltas en secreto, dificultando la supervisión y responsabilidad democráticas. Este constante empujar los límites de lo que la ley permite ha generado desconfianza pública en las intenciones del gobierno. Por eso, no es sorprendente que algunos ahora tengan más fe en un ejecutivo tecnológico aparentemente bien intencionado y brillante, pero no elegido, como Dario Amodei de Anthropic, para hacer lo correcto y establecer las políticas adecuadas.
Finalmente, está el problema que muchos estadounidenses tienen con este gobierno en particular. La administración Trump ha tomado acciones sin precedentes para castigar la disidencia interna, a menudo con justificaciones legales endebles o sin justificación legal alguna, y ha desplegado repetidamente al ejército en el país para intimidar o castigar a la oposición percibida. También ha lanzado varias acciones militares en el extranjero con poca o ninguna justificación legal. ¿Es de extrañar que muchos cuestionen si esta administración en particular debería tener el poder de usar IA para lo que sus abogados consideren legal?
¿Es inevitable la nacionalización de la IA?
Incluso si crees que el Pentágono tiene razón en que los gobiernos democráticos, no las empresas privadas, deberían decidir cómo se usa la IA, la siguiente pregunta es cómo debería ejercerse ese control. Altman señaló la cuestión última que pende sobre la industria: si la IA de frontera es una tecnología estratégica, ¿por qué no la nacionaliza el gobierno? Después de todo, muchos otros avances con implicaciones estratégicas—desde el Proyecto Manhattan hasta la carrera espacial y los primeros esfuerzos para desarrollar IA—fueron financiados y dirigidos en gran medida por el gobierno. Como dijo Altman, “me ha parecido durante mucho tiempo que sería mejor si la construcción de AGI fuera un proyecto gubernamental,” aunque añadió que “no parece muy probable con la trayectoria actual.”
El enfoque actual del Pentágono se acerca a la nacionalización por otros medios. Una opción que el Departamento de Guerra amenazó fue usar la Ley de Producción de Defensa, una ley de la Guerra Fría, para obligar a Anthropic a entregar un modelo de IA en sus términos preferidos—una especie de nacionalización suave de la línea de producción de Anthropic. Y la decisión de etiquetar a Anthropic como un “riesgo en la cadena de suministro” busca, en parte, intimidar a otras empresas de IA para que acepten los términos del Pentágono, lo que también parece cercano a la nacionalización.
¿Cuál debería ser el costo de la disensión en una democracia?
Finalmente, esto nos lleva a la pregunta de qué castigo sería apropiado para una empresa de IA que se niega a aceptar los términos contractuales preferidos por el gobierno. Como ha dicho Dean Ball, experto en políticas de IA que trabajó brevemente para la administración Trump en su Plan de Acción de IA, el gobierno parece tener el derecho de cancelar su contrato de 200 millones de dólares con Anthropic.
Pero la decisión de ir mucho más allá y etiquetar a Anthropic como un “riesgo en la cadena de suministro” ataca directamente los derechos de propiedad privada y la libertad de expresión en una democracia liberal. La designación—que originalmente se pensó para tecnologías que podrían ayudar a un adversario extranjero a sabotear sistemas de defensa críticos—nunca antes se había aplicado a una empresa estadounidense ni se había usado para castigar a una compañía por no aceptar los términos del contrato que el ejército estadounidense deseaba. Ball ha dicho que esa decisión equivale a un “asesinato corporativo en intento,” ya que bajo la designación SCR cualquier empresa que haga negocios con el Pentágono sería impedida de tener relaciones comerciales con Anthropic. Si esa interpretación se mantiene—y muchos expertos legales han dicho que no—podría ser un golpe mortal para Anthropic, que depende de vender a grandes empresas del Fortune 500 que también trabajan para el Pentágono, para obtener ingresos, infraestructura de computación en la nube y respaldo de capital de riesgo. ¿Debería el castigo por discrepar del gobierno ser la muerte de tu negocio? Eso ciertamente parece poco estadounidense.
Altman afirmó que cerró su acuerdo con el Pentágono en parte para reducir la tensión entre el gobierno y las empresas de IA, diciendo que “una colaboración estrecha entre gobiernos y las empresas que construyen esta tecnología es súper importante.” Aunque no estoy seguro de las verdaderas motivaciones de Altman, coincido con él en este último punto. En un momento en que la IA potencialmente amenaza con cambios sin precedentes en la economía y la sociedad, fomentar la desconfianza y el conflicto entre el gobierno y las personas que desarrollan sistemas avanzados de IA parece una muy mala idea.
Con eso, más noticias sobre IA.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE SOBRE IA
Claude de Anthropic supera a ChatGPT en la App Store, mientras los usuarios boicotean por el contrato de 200 millones de dólares de OpenAI con el Pentágono—por Marco Quiroz-Gutierrez
Irán tiene la intención—y cada vez más las herramientas—para ciberataques impulsados por IA—por Sharon Goldman
Exclusivo: veteranos de CrowdStrike y SentinelOne levantan 34 millones de dólares para abordar la brecha en gobernanza de la IA empresarial—por Beatrice Nolan
El acuerdo de OpenAI con el Pentágono plantea nuevas preguntas sobre IA y vigilancia masiva—por Beatrice Nolan
La semana en que el miedo a la IA se volvió real y EE. UU. se dio cuenta de que quizás no está listo para lo que viene—por Nick Lichtenberg
NOTICIAS SOBRE IA
OpenAI cierra una ronda de financiación de 110 mil millones de dólares que la valúa en 730 millones. La ronda incluye 30 mil millones de SoftBank, 50 mil millones de Amazon y 30 mil millones de Nvidia. La inversión de Amazon está parcialmente vinculada a la compra por parte de OpenAI de chips Trainium de Amazon y se realiza en tramos condicionados a que OpenAI alcance ciertos hitos relacionados con la obtención de inteligencia artificial general (AGI) o la realización de una oferta pública inicial. El acuerdo para construir sobre AWS de Amazon marca un cambio estratégico para OpenAI, que históricamente ha dependido de Azure de Microsoft y GPUs de Nvidia, aunque OpenAI afirma que su asociación con Microsoft sigue siendo central. OpenAI ha mencionado la posibilidad de hacer una IPO este mismo año. Lee más en The Wall Street Journal aquí.
Agencias gubernamentales comienzan a dejar de usar Anthropic tras la designación de “riesgo en la cadena de suministro” del Pentágono y el anuncio de Trump. El Departamento del Tesoro, el Departamento de Estado y el Departamento de Salud y Servicios Humanos anunciaron que dejarán de usar el modelo Claude de Anthropic tras una directiva emitida el viernes por el presidente Donald Trump. El anuncio de Trump se produjo en las últimas horas de las negociaciones tensas de Anthropic con el Pentágono, que finalmente colapsaron, llevando a EE. UU. a etiquetar a la empresa de IA como un “riesgo en la cadena de suministro.” Anthropic había estado ganando importantes contratos federales. Ahora el gobierno está cambiando a modelos de IA de OpenAI, Google y, en algunos casos, xAI. Ver más en Reuters.
Meta está probando un asistente de compras con IA. Según una historia de Bloomberg, la gigante de las redes sociales espera crear una herramienta de compras con IA que pueda competir con las ofertas de comercio electrónico integradas en ChatGPT de OpenAI y Gemini de Google. La función de Meta, que ya se está implementando en algunos usuarios en EE. UU., ofrece recomendaciones de productos en formato carrusel con imágenes, precios, detalles de marca y breves explicaciones, y ajusta las sugerencias en función de datos inferidos como ubicación y género, aunque las compras deben completarse en sitios de comerciantes externos. El CEO Mark Zuckerberg ha enmarcado el movimiento como parte del impulso de Meta hacia la “superinteligencia personal,” insinuando que futuras herramientas de compra con agentes podrían profundizar los lazos entre sus productos de IA y su ecosistema publicitario.
Thinking Machines pierde a dos miembros más del equipo fundador. Christian Gibson y Noah Shpak, dos miembros del equipo fundador del “neolab” de IA de alto perfil fundado por la ex CTO de OpenAI, Mira Murati, han abandonado discretamente para unirse a Meta. Según Business Insider, sus salidas se suman a una ola más amplia de salidas de la empresa con sede en San Francisco, que levantó una ronda semilla de 2 mil millones de dólares con una valoración de 12 mil millones, pero ha tenido dificultades para retener talento clave mientras rivales como Meta y OpenAI reclutan ingenieros.
INVESTIGACIÓN SOBRE IA
** La IA puede desenmascarar usuarios anónimos en internet a gran escala.** Así lo revela un artículo recientemente publicado por investigadores de ETH Zurich, Anthropic y MATS (el programa ML Alignment & Theory Scholars). Los investigadores encontraron que si daban a un agente de IA acceso completo a internet, podría re-identificar a individuos pseudónimos entrevistados durante 10 minutos por Claude de Anthropic, analizando esas entrevistas y otros posts en foros como Hacker News, Reddit y perfiles de LinkedIn. Dijeron que la IA podía hacer esto en minutos, mientras que cada identificación habría tomado horas a un investigador humano. Los métodos basados en modelos de lenguaje grande superaron sustancialmente a métodos previos de aprendizaje automático, logrando un 90% de precisión (de las personas que identificó, estuvo correcto en el 90%) y un 68% de recall (falló en encontrar la identidad en el 32% de los casos). Los hallazgos tienen grandes implicaciones para la privacidad en línea. La capacidad de los modelos de lenguaje para hacer cosas así fue una de las preocupaciones de Anthropic en sus negociaciones con el Pentágono, ya que re-identificar usuarios anónimos a partir de fuentes públicas o comercialmente comprables no era algo que se pudiera hacer fácilmente a gran escala antes, pero quizás no cumple con la definición clásica de “vigilancia masiva.” Puedes leer el artículo de investigación aquí.
CALENDARIO DE IA
2-5 de marzo: Congreso Mundial de Móviles, Barcelona, España.
12-18 de marzo: South by Southwest, Austin, Texas.
16-19 de marzo: Nvidia GTC, San José, California.
6-9 de abril: HumanX 2026, San Francisco.
ALIMENTO PARA EL CEREBRO
A medida que la IA se vuelve cada vez más importante en la guerra, ¿se convierten los centros de datos en objetivos principales? Esa es la pregunta que algunos se hacen tras reportar Amazon que dos de sus centros de datos en AWS en los EAU y uno en Baréin fueron alcanzados por misiles o drones iraníes, dejándolos fuera de servicio. Los ataques obligaron a los usuarios a cambiar a servicios alojados en regiones más lejanas y provocaron interrupciones temporales del servicio. También puede haber introducido latencia adicional en aplicaciones basadas en la nube.
No se sabe exactamente por qué Irán atacó los centros de datos. Podría ser que simplemente intentaran interrumpir los servicios de internet como forma de castigar a los Estados del Golfo que albergan bases militares estadounidenses. Pero Yanis Varoufakis, economista y ex ministro de Finanzas de Grecia, fue uno de los que especularon que Irán atacó las instalaciones para interrumpir el uso que hace el ejército estadounidense de los modelos Claude de Anthropic.
A pesar de que el Pentágono etiquetó a Anthropic como un “riesgo en la cadena de suministro” y afirmó que el ejército dejaría de usar Claude “de inmediato,” The Wall Street Journal y Axios informaron que el ejército está usando Claude para ayudar en el procesamiento de objetivos como parte de la Operación Epic Fury, su guerra contra Irán. También se sabe que al menos algunas de las redes clasificadas en las que el ejército ejecuta Claude están alojadas en AWS.
Por lo tanto, es razonable, según la especulación de Varoufakis y otros, pensar que Irán atacó los centros de datos para interrumpir el uso que hace el ejército estadounidense de Claude. No está claro si esto es cierto en este caso, pero probablemente en futuros conflictos los centros de datos, incluso muy alejados del frente, se convertirán en objetivos debido a la importancia creciente de la IA en la guerra.
Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La pelea del Pentágono con Anthropic fue la primera prueba real de cómo controlaremos la inteligencia artificial poderosa. La mala noticia: todos fallamos
Hola y bienvenido a Eye on AI. En esta edición… La pelea del Pentágono con Anthropic plantea tres preguntas cruciales… OpenAI obtiene 110 mil millones de dólares en nueva financiación… Meta experimenta con un asistente de compras con IA… Los modelos de lenguaje grande pueden identificar usuarios pseudónimos en internet a gran escala… centros de datos en las líneas frontales en la guerra de Irán.
Vídeo recomendado
La historia más importante en IA en este momento, sin duda, es la pelea entre el Departamento de Guerra de EE. UU. y Anthropic. Si no has estado siguiendo el drama, puedes ponerte al día leyendo las coberturas de mí y mis colegas de Fortune aquí, aquí, aquí, aquí, aquí y aquí.
Esta historia plantea al menos tres preguntas críticas: ¿quién debería tener el control sobre cómo se usa la IA en una sociedad democrática? ¿Cómo debería ejercerse ese control? ¿Cuáles deberían ser las consecuencias para una empresa que discrepa con la política del gobierno?
Sea cual sea tu opinión sobre el CEO de OpenAI, Sam Altman, y su decisión de intervenir y firmar un acuerdo con el Pentágono—incluyendo una obligación contractual de permitir que el ejército use los modelos de IA de OpenAI “para cualquier propósito legal” que Anthropic se negó a aceptar—Altman identificó correctamente lo que está en juego en esta pelea.
En una sesión de “Pregúntame lo que quieras” en X durante el fin de semana, Altman dijo:
Un punto realmente importante: no somos elegidos. Tenemos un proceso democrático donde elegimos a nuestros líderes. Tenemos experiencia con la tecnología y entendemos sus limitaciones, pero creo que deberías estar aterrorizado de que una empresa privada decida qué es ético y qué no en las áreas más importantes. Parece bien que decidamos cómo ChatGPT debería responder a una pregunta controvertida. Pero realmente no quiero que decidamos qué hacer si una bomba nuclear se dirige hacia EE. UU.
Este fue el núcleo de la objeción declarada del Pentágono al contrato existente con Anthropic. El ejército no consideraba correcto que una empresa privada dicte políticas a un gobierno elegido.
La IA se mueve a la velocidad de la luz, el Congreso a paso de tortuga
La mayoría de los estadounidenses podrían estar de acuerdo con la posición del Pentágono—en principio. Pero en la práctica, la situación se complica por tres cosas. Primero, la tecnología de IA avanza extremadamente rápido, pero los mecanismos de control democrático—legislación, supervisión del Congreso, elecciones—se mueven muy lentamente. En los tres años desde que debutó ChatGPT, el Congreso no ha aprobado ninguna legislación federal sobre IA. La Administración Trump desmanteló regulaciones limitadas de IA implementadas por su predecesor, además de actuar para castigar a los estados que aprueban sus propias regulaciones de IA.
Así que, aunque muchos puedan estar de acuerdo en que las políticas sobre el uso de IA por parte del gobierno deberían ser establecidas por funcionarios electos, existe el problema práctico de qué hacer cuando esos representantes electos no actúan. La idea de llegar a una política de IA mediante negociaciones contractuales entre laboratorios y el gobierno es un sustituto pobre de una verdadera gobernanza democrática, pero podría ser mejor que ninguna gobernanza. La controversia sobre el contrato del Pentágono con Anthropic debería ser una llamada de atención para que el Congreso actúe.
En segundo lugar, la tendencia de los gobiernos en las últimas décadas ha sido interpretar las leyes existentes de manera amplia para ampliar el poder del Estado en el uso de tecnología para vigilar a sus ciudadanos. (La historia ha sido una de la rama ejecutiva recuperando gradualmente poderes de vigilancia que perdió tras los escándalos de Watergate y las audiencias del Comité de la Iglesia en los años 70). Muchas actividades militares también están envueltas en secreto, dificultando la supervisión y responsabilidad democráticas. Este constante empujar los límites de lo que la ley permite ha generado desconfianza pública en las intenciones del gobierno. Por eso, no es sorprendente que algunos ahora tengan más fe en un ejecutivo tecnológico aparentemente bien intencionado y brillante, pero no elegido, como Dario Amodei de Anthropic, para hacer lo correcto y establecer las políticas adecuadas.
Finalmente, está el problema que muchos estadounidenses tienen con este gobierno en particular. La administración Trump ha tomado acciones sin precedentes para castigar la disidencia interna, a menudo con justificaciones legales endebles o sin justificación legal alguna, y ha desplegado repetidamente al ejército en el país para intimidar o castigar a la oposición percibida. También ha lanzado varias acciones militares en el extranjero con poca o ninguna justificación legal. ¿Es de extrañar que muchos cuestionen si esta administración en particular debería tener el poder de usar IA para lo que sus abogados consideren legal?
¿Es inevitable la nacionalización de la IA?
Incluso si crees que el Pentágono tiene razón en que los gobiernos democráticos, no las empresas privadas, deberían decidir cómo se usa la IA, la siguiente pregunta es cómo debería ejercerse ese control. Altman señaló la cuestión última que pende sobre la industria: si la IA de frontera es una tecnología estratégica, ¿por qué no la nacionaliza el gobierno? Después de todo, muchos otros avances con implicaciones estratégicas—desde el Proyecto Manhattan hasta la carrera espacial y los primeros esfuerzos para desarrollar IA—fueron financiados y dirigidos en gran medida por el gobierno. Como dijo Altman, “me ha parecido durante mucho tiempo que sería mejor si la construcción de AGI fuera un proyecto gubernamental,” aunque añadió que “no parece muy probable con la trayectoria actual.”
El enfoque actual del Pentágono se acerca a la nacionalización por otros medios. Una opción que el Departamento de Guerra amenazó fue usar la Ley de Producción de Defensa, una ley de la Guerra Fría, para obligar a Anthropic a entregar un modelo de IA en sus términos preferidos—una especie de nacionalización suave de la línea de producción de Anthropic. Y la decisión de etiquetar a Anthropic como un “riesgo en la cadena de suministro” busca, en parte, intimidar a otras empresas de IA para que acepten los términos del Pentágono, lo que también parece cercano a la nacionalización.
¿Cuál debería ser el costo de la disensión en una democracia?
Finalmente, esto nos lleva a la pregunta de qué castigo sería apropiado para una empresa de IA que se niega a aceptar los términos contractuales preferidos por el gobierno. Como ha dicho Dean Ball, experto en políticas de IA que trabajó brevemente para la administración Trump en su Plan de Acción de IA, el gobierno parece tener el derecho de cancelar su contrato de 200 millones de dólares con Anthropic.
Pero la decisión de ir mucho más allá y etiquetar a Anthropic como un “riesgo en la cadena de suministro” ataca directamente los derechos de propiedad privada y la libertad de expresión en una democracia liberal. La designación—que originalmente se pensó para tecnologías que podrían ayudar a un adversario extranjero a sabotear sistemas de defensa críticos—nunca antes se había aplicado a una empresa estadounidense ni se había usado para castigar a una compañía por no aceptar los términos del contrato que el ejército estadounidense deseaba. Ball ha dicho que esa decisión equivale a un “asesinato corporativo en intento,” ya que bajo la designación SCR cualquier empresa que haga negocios con el Pentágono sería impedida de tener relaciones comerciales con Anthropic. Si esa interpretación se mantiene—y muchos expertos legales han dicho que no—podría ser un golpe mortal para Anthropic, que depende de vender a grandes empresas del Fortune 500 que también trabajan para el Pentágono, para obtener ingresos, infraestructura de computación en la nube y respaldo de capital de riesgo. ¿Debería el castigo por discrepar del gobierno ser la muerte de tu negocio? Eso ciertamente parece poco estadounidense.
Altman afirmó que cerró su acuerdo con el Pentágono en parte para reducir la tensión entre el gobierno y las empresas de IA, diciendo que “una colaboración estrecha entre gobiernos y las empresas que construyen esta tecnología es súper importante.” Aunque no estoy seguro de las verdaderas motivaciones de Altman, coincido con él en este último punto. En un momento en que la IA potencialmente amenaza con cambios sin precedentes en la economía y la sociedad, fomentar la desconfianza y el conflicto entre el gobierno y las personas que desarrollan sistemas avanzados de IA parece una muy mala idea.
Con eso, más noticias sobre IA.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE SOBRE IA
Claude de Anthropic supera a ChatGPT en la App Store, mientras los usuarios boicotean por el contrato de 200 millones de dólares de OpenAI con el Pentágono—por Marco Quiroz-Gutierrez
Irán tiene la intención—y cada vez más las herramientas—para ciberataques impulsados por IA—por Sharon Goldman
Exclusivo: veteranos de CrowdStrike y SentinelOne levantan 34 millones de dólares para abordar la brecha en gobernanza de la IA empresarial—por Beatrice Nolan
El acuerdo de OpenAI con el Pentágono plantea nuevas preguntas sobre IA y vigilancia masiva—por Beatrice Nolan
La semana en que el miedo a la IA se volvió real y EE. UU. se dio cuenta de que quizás no está listo para lo que viene—por Nick Lichtenberg
NOTICIAS SOBRE IA
OpenAI cierra una ronda de financiación de 110 mil millones de dólares que la valúa en 730 millones. La ronda incluye 30 mil millones de SoftBank, 50 mil millones de Amazon y 30 mil millones de Nvidia. La inversión de Amazon está parcialmente vinculada a la compra por parte de OpenAI de chips Trainium de Amazon y se realiza en tramos condicionados a que OpenAI alcance ciertos hitos relacionados con la obtención de inteligencia artificial general (AGI) o la realización de una oferta pública inicial. El acuerdo para construir sobre AWS de Amazon marca un cambio estratégico para OpenAI, que históricamente ha dependido de Azure de Microsoft y GPUs de Nvidia, aunque OpenAI afirma que su asociación con Microsoft sigue siendo central. OpenAI ha mencionado la posibilidad de hacer una IPO este mismo año. Lee más en The Wall Street Journal aquí.
Agencias gubernamentales comienzan a dejar de usar Anthropic tras la designación de “riesgo en la cadena de suministro” del Pentágono y el anuncio de Trump. El Departamento del Tesoro, el Departamento de Estado y el Departamento de Salud y Servicios Humanos anunciaron que dejarán de usar el modelo Claude de Anthropic tras una directiva emitida el viernes por el presidente Donald Trump. El anuncio de Trump se produjo en las últimas horas de las negociaciones tensas de Anthropic con el Pentágono, que finalmente colapsaron, llevando a EE. UU. a etiquetar a la empresa de IA como un “riesgo en la cadena de suministro.” Anthropic había estado ganando importantes contratos federales. Ahora el gobierno está cambiando a modelos de IA de OpenAI, Google y, en algunos casos, xAI. Ver más en Reuters.
Meta está probando un asistente de compras con IA. Según una historia de Bloomberg, la gigante de las redes sociales espera crear una herramienta de compras con IA que pueda competir con las ofertas de comercio electrónico integradas en ChatGPT de OpenAI y Gemini de Google. La función de Meta, que ya se está implementando en algunos usuarios en EE. UU., ofrece recomendaciones de productos en formato carrusel con imágenes, precios, detalles de marca y breves explicaciones, y ajusta las sugerencias en función de datos inferidos como ubicación y género, aunque las compras deben completarse en sitios de comerciantes externos. El CEO Mark Zuckerberg ha enmarcado el movimiento como parte del impulso de Meta hacia la “superinteligencia personal,” insinuando que futuras herramientas de compra con agentes podrían profundizar los lazos entre sus productos de IA y su ecosistema publicitario.
Thinking Machines pierde a dos miembros más del equipo fundador. Christian Gibson y Noah Shpak, dos miembros del equipo fundador del “neolab” de IA de alto perfil fundado por la ex CTO de OpenAI, Mira Murati, han abandonado discretamente para unirse a Meta. Según Business Insider, sus salidas se suman a una ola más amplia de salidas de la empresa con sede en San Francisco, que levantó una ronda semilla de 2 mil millones de dólares con una valoración de 12 mil millones, pero ha tenido dificultades para retener talento clave mientras rivales como Meta y OpenAI reclutan ingenieros.
INVESTIGACIÓN SOBRE IA
** La IA puede desenmascarar usuarios anónimos en internet a gran escala.** Así lo revela un artículo recientemente publicado por investigadores de ETH Zurich, Anthropic y MATS (el programa ML Alignment & Theory Scholars). Los investigadores encontraron que si daban a un agente de IA acceso completo a internet, podría re-identificar a individuos pseudónimos entrevistados durante 10 minutos por Claude de Anthropic, analizando esas entrevistas y otros posts en foros como Hacker News, Reddit y perfiles de LinkedIn. Dijeron que la IA podía hacer esto en minutos, mientras que cada identificación habría tomado horas a un investigador humano. Los métodos basados en modelos de lenguaje grande superaron sustancialmente a métodos previos de aprendizaje automático, logrando un 90% de precisión (de las personas que identificó, estuvo correcto en el 90%) y un 68% de recall (falló en encontrar la identidad en el 32% de los casos). Los hallazgos tienen grandes implicaciones para la privacidad en línea. La capacidad de los modelos de lenguaje para hacer cosas así fue una de las preocupaciones de Anthropic en sus negociaciones con el Pentágono, ya que re-identificar usuarios anónimos a partir de fuentes públicas o comercialmente comprables no era algo que se pudiera hacer fácilmente a gran escala antes, pero quizás no cumple con la definición clásica de “vigilancia masiva.” Puedes leer el artículo de investigación aquí.
CALENDARIO DE IA
2-5 de marzo: Congreso Mundial de Móviles, Barcelona, España.
12-18 de marzo: South by Southwest, Austin, Texas.
16-19 de marzo: Nvidia GTC, San José, California.
6-9 de abril: HumanX 2026, San Francisco.
ALIMENTO PARA EL CEREBRO
A medida que la IA se vuelve cada vez más importante en la guerra, ¿se convierten los centros de datos en objetivos principales? Esa es la pregunta que algunos se hacen tras reportar Amazon que dos de sus centros de datos en AWS en los EAU y uno en Baréin fueron alcanzados por misiles o drones iraníes, dejándolos fuera de servicio. Los ataques obligaron a los usuarios a cambiar a servicios alojados en regiones más lejanas y provocaron interrupciones temporales del servicio. También puede haber introducido latencia adicional en aplicaciones basadas en la nube.
No se sabe exactamente por qué Irán atacó los centros de datos. Podría ser que simplemente intentaran interrumpir los servicios de internet como forma de castigar a los Estados del Golfo que albergan bases militares estadounidenses. Pero Yanis Varoufakis, economista y ex ministro de Finanzas de Grecia, fue uno de los que especularon que Irán atacó las instalaciones para interrumpir el uso que hace el ejército estadounidense de los modelos Claude de Anthropic.
A pesar de que el Pentágono etiquetó a Anthropic como un “riesgo en la cadena de suministro” y afirmó que el ejército dejaría de usar Claude “de inmediato,” The Wall Street Journal y Axios informaron que el ejército está usando Claude para ayudar en el procesamiento de objetivos como parte de la Operación Epic Fury, su guerra contra Irán. También se sabe que al menos algunas de las redes clasificadas en las que el ejército ejecuta Claude están alojadas en AWS.
Por lo tanto, es razonable, según la especulación de Varoufakis y otros, pensar que Irán atacó los centros de datos para interrumpir el uso que hace el ejército estadounidense de Claude. No está claro si esto es cierto en este caso, pero probablemente en futuros conflictos los centros de datos, incluso muy alejados del frente, se convertirán en objetivos debido a la importancia creciente de la IA en la guerra.
Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.