Libro en PDF 10 MITOS identidad mexicana (PROFECIA POSCOVID)

Libro en PDF 10 MITOS identidad mexicana (PROFECIA POSCOVID)

  Interesados comunicarse a correo: erubielcamacho43@yahoo.com.mx  si quieren versión impresa o electrónica donativo voluntario .

sábado, 25 de abril de 2026

Qué significa la IA para el futuro de la guerra

 

Qué significa la IA para el futuro de la guerra

La IA ya está dando nueva forma a la guerra, pero hay grandes desacuerdos sobre los límites necesarios.

Si hay una guerra en algún lugar en 2026 —y actualmente hay varias— es muy probable que la inteligencia artificial esté desempeñando un papel en ella.

La IA se está utilizando en los combates en Irán y Ucrania. Estados Unidos la utilizó cuando capturó al líder de Venezuela. Israel la utilizó durante su guerra en Gaza.

El uso de la IA en el campo de batalla apenas está empezando. Por eso es tan importante otra contienda que se desarrolló la semana pasada entre el gobierno de Donald Trump y Anthropic, una empresa estadounidense de IA. Pregunté a mi colega Julian Barnes qué significa esta disputa para el futuro de la guerra, para los estadounidenses y para el mundo.

ImageUna persona atraviesa una puerta de cristal con la palabra “Anthropic”.
Credit...Marissa Leshnov para The New York Times

Anthropic es una de las empresas líderes de IA del mundo. Su modelo Claude ha sido ampliamente utilizado por el Pentágono para recopilar inteligencia, identificar objetivos, trazar operaciones y mucho más. Pero el enfrentamiento de la semana pasada no fue sobre cómo se utiliza actualmente la IA, sino sobre cómo podría utilizarse.

Advertisement

SKIP ADVERTISEMENT

El contrato de Anthropic establecía dos restricciones: el gobierno no podía utilizar su tecnología para vigilar a ciudadanos estadounidenses. Y no podía utilizar Claude con armas autónomas letales sin intervención humana.

El Pentágono se opuso. Dijo que no quería utilizar la IA para la vigilancia nacional ni para robots asesinos autónomos. Pero se negó a permitir que una empresa privada impusiera restricciones a la forma en que el ejército utiliza un producto.

El enfrentamiento ha sido una mezcla desordenada de disputa contractual y guerra cultural (como puedes leer en este artículo disponible en español), y además un punto focal para los temores sobre la IA y las preocupaciones sobre la competitividad de Estados Unidos en la carrera mundial por la preeminencia de esta tecnología.

El viernes, tras el fracaso de las negociaciones, el presidente Trump ordenó a todas las agencias federales que dejaran de utilizar Anthropic. El Pentágono también la calificó de un “riesgo en la cadena de suministro para la seguridad nacional”, lo que podría impedir que cualquier contratista militar haga negocios con la empresa.

Advertisement

SKIP ADVERTISEMENT

Julian, que escribe sobre inteligencia y seguridad nacional, estuvo cubriendo la disputa entre Anthropic y el Pentágono antes de empezar a cubrir la guerra en Irán. (Ha estado ocupado).

Julian, ¿hasta qué punto está ya integrada la IA en la guerra y la seguridad nacional?

Está totalmente integrada. El uso de la IA en la guerra ya no es teórico. La IA está en el campo de batalla. No creemos que se estén utilizando todavía grandes modelos de lenguaje para comandar drones o disparar armas. Pero la IA está profundamente integrada en el proceso de recopilación de inteligencia y se usa para formar decisiones estratégicas.

¿Y qué es exactamente lo que preocupa a Anthropic?

Una de sus preocupaciones es que el gobierno pueda utilizar la IA para analizar datos comercialmente disponibles sobre los ciudadanos estadounidenses. Nuestros datos de navegación por internet, nuestros metadatos telefónicos: las empresas comerciales pueden recogerlos y utilizar la IA para averiguar dónde has estado, qué has visitado, qué has comprado.

A Anthropic también le preocupa la idea de los drones asesinos.

Image
Una persona con pantalones de camuflaje coloca un objeto en el suelo de una habitación con cajas negras apiladas contra la pared. Encima de algunas de ellas hay pequeños drones.
Un taller de drones en Ucrania.Credit...Brendan Hoffman para The New York Times

¿Y por qué se opone el gobierno a estos límites?

Estados Unidos dice que siempre habrá un humano involucrado cuando la inteligencia artificial tome decisiones sobre si matar o no a alguien. Pero eso conlleva problemas, porque quien pueda observar, pensar y decidir más rápido va a ganar en una batalla, y los humanos pueden ralentizar ese proceso.

Advertisement

SKIP ADVERTISEMENT

La cuestión central aquí es el papel de los humanos en la guerra del futuro. Y probablemente será muy diferente del actual. Seguimos necesitándolos, pero no hemos decidido cuál va a ser su papel. Y eso hace que sea difícil escribir reglas para la IA por adelantado.

¿Qué dice la ley sobre la IA y la guerra?

El Pentágono dice que las leyes existentes que rigen la conducción de la guerra deberían ser suficientes. Porque los principios éticos de la guerra son los mismos si lanzo una bomba o si utilizo software para mejorar mi puntería.

Pero Anthropic dice que la IA no es como otras armas. Otras armas están limitadas por su hardware. Este avión vuela a este lugar y lanza una bomba. Este avión vuela a este lugar, y dispara a otro avión.

Los grandes modelos de lenguaje son diferentes. Puedes hacer que analicen datos para obtener información. Puedes hacer que sugieran lugares para bombardear. Puedes hacer que diseñen un ciberataque. Su uso evoluciona constantemente.

El límite de Anthropic parte de que se trata de una tecnología especial y que necesitamos ponerle salvaguardas especiales.

Advertisement

SKIP ADVERTISEMENT
Image
Una persona con un traje azul hablando con un micrófono enganchado a su camisa.
Dario Amodei, cofundador y director ejecutivo de Anthropic.Credit...Karsten Moran para The New York Times

Si lo resumimos, ¿de qué trata realmente esta disputa?

Se trata de política y de principios, en los dos bandos.

Anthropic quiere demostrar que es una empresa responsable y preocupada por la seguridad. Esa es su marca. Y el Pentágono dice: ¡Esta es la empresa woke de la IA! ¡Estamos tomando medidas enérgicas contra lo woke! Esa es la marca del movimiento MAGA.

En cuanto a los principios, el Pentágono dice que hay una norma para todas las empresas que hacen negocios con nosotros: estamos limitados por el uso legítimo de esta tecnología, no por condiciones dictadas por empresas privadas.

Y Anthropic dice que las leyes existentes no son adecuadas para regular la IA.

¿Cómo encaja esto en la gran carrera por la IA entre Estados Unidos y China? Supongo que las empresas chinas no piden al gobierno que ponga salvaguardas.

Advertisement

SKIP ADVERTISEMENT

Desde luego que no. La legislación china exige que las empresas chinas cedan su tecnología al Estado. También por eso la amenaza de China se cierne sobre lo que acaba de ocurrir en Washington. Porque Estados Unidos cree que si hay una guerra con China por Taiwán, la batalla inicial será una batalla de drones sobre el estrecho de Taiwán. Ganarán los drones que puedan moverse y decidir más rápido.

La ausencia de límites también significa que el gobierno chino ha pedido a las empresas de IA que desarrollen herramientas de desinformación masiva. Ha utilizado la IA para vigilar a las masas. Ha utilizado grandes modelos de lenguaje para identificar a los disidentes. De modo que la forma en que China ha utilizado la IA es en realidad el escenario de pesadilla sobre el que advierte Anthropic.


Información relacionada: OpenAI, el principal rival de Anthropic, firmó un acuerdo con el Pentágono inmediatamente después de la orden de Trump. El lunes, OpenAI dijo que estaba modificando el contrato para que dijera que sus sistemas de IA “no se utilizarán intencionadamente para la vigilancia interior de personas y nacionales estadounidenses”.

No hay comentarios:

Publicar un comentario