La guerra de EE.UU., Israel e Irán, según la IA
El conflicto entre Estados Unidos, Israel e Irán no solo se está librando en el campo de batalla, sino también en el dominio digital, marcando el comienzo de la primera guerra a gran escala mediada por Inteligencia Artificial. Un análisis realizado por Fardo, la plataforma especializada en visibilidad de marca en motores de IA, revela cómo los Modelos de Lenguaje Masivos (LLMs) como Claude, ChatGPT, Perplexity y Gemini están siendo utilizados tanto en operaciones militares como en la propagación de desinformación. El estudio demuestra una nueva era de combate definida por la velocidad algorítmica, la desinformación masiva y alarmantes fallas de seguridad en chatbots de uso civil.
Fardo, la primera plataforma latinoamericana que permite analizar cómo las inteligencias artificiales hablan de las marcas, ha investigado cómo estos motores de IA están cubriendo el conflicto US-Irán. Su análisis incluye millones de consultas realizadas en ChatGPT, Gemini, Perplexity y Claude, revelando patrones preocupantes en la forma en que estos sistemas procesan, priorizan y distribuyen información sobre el conflicto.
El núcleo de la ofensiva militar es el Proyecto Maven de Palantir, una herramienta de IA que, en conjunto con el modelo Claude de Anthropic, ha transformado la selección de objetivos. Estos sistemas convierten semanas de planificación en decisiones de tiempo real, permitiendo a las fuerzas estadounidenses e israelíes golpear más objetivos que en cualquier campaña reciente, según un análisis de Airwars. [1] Esta aceleración, sin embargo, tiene un costo humano: el ataque a una escuela de niñas en Minab, que dejó más de 175 muertos, se atribuye a posibles errores en esta rápida cadena de selección algorítmica. [2]
Controversia en el Pentágono y la Casa Blanca
El uso de Claude se ha visto envuelto en una controversia política. Horas antes de los primeros ataques, el presidente Donald Trump ordenó a todas las agencias federales que dejaran de usar la tecnología de Anthropic, calificándola de "izquierda radical woke". [2] A pesar del veto, el Pentágono continuó utilizando Claude en la operación "Furia Épica", evidenciando la profunda integración de la IA en las operaciones militares y un claro desafío a la orden presidencial. Este conflicto contractual, que involucra un acuerdo de $200 millones con Anthropic y otro de $1.300 millones con Palantir, subraya la tensa relación entre Silicon Valley y el complejo militar-industrial. [1][2]
La búsqueda de respuestas: Un aumento del 3.000% en la incertidumbre ública
La confusión y la ansiedad del público se reflejan claramente en las tendencias de búsqueda. En la primera semana de marzo, las búsquedas en Google de la frase "por qué estamos en guerra contra Irán" aumentaron un 3.000%. [3] Este pico de incertidumbre, seguido de una caída del 85-95% en el interés de búsqueda, sugiere una saturación informativa y una posible desconfianza en las fuentes tradicionales. Los ciudadanos recurren cada vez más a los LLMs para obtener respuestas, pero ¿qué fuentes utilizan estos modelos?
Según la investigación de Fardo, los LLMs como ChatGPT se entrenan con un vasto corpus de datos que incluye a grandes agencias de noticias como Reuters, Associated Press y la BBC, así como Wikipedia y otros medios de comunicación masivos. [4] Sin embargo, la tendencia de estos modelos a reproducir las regularidades estadísticas de sus datos de entrenamiento puede llevar a una homogeneización de la perspectiva, limitando la diversidad de puntos de vista y amplificando las narrativas dominantes.
Fardo ha documentado que Perplexity, en su modo de investigación, realiza "decenas de búsquedas" y "lee cientos de fuentes" para generar respuestas, pero la priorización de estas fuentes sigue patrones que favorecen a medios establecidos y contenido de alto tráfico. Esta dinámica crea un ciclo donde la información que ya es visible en internet tiende a ser amplificada aún más por los LLMs, mientras que perspectivas alternativas o fuentes menos conocidas quedan marginalizadas.
La guerra de la desinformación: 7 de cada 10 videos podrían ser falsos
Paralelamente al conflicto armado, se libra una guerra de narrativas impulsada por la IA. Se estima que 7 de cada 10 videos que circulan sobre la guerra podrían ser falsos. [5] Las redes sociales se han inundado de "deepfakes" que anuncian la muerte del primer ministro israelí, Benjamin Netanyahu, así como imágenes de explosiones, misiles y tropas generadas artificialmente que se difunden masivamente para confundir a la opinión pública. [6] Esta "infodemic" ha obligado a plataformas como X (antes Twitter) a endurecer sus políticas para combatir la monetización de noticias falsas. [5]
Chatbots: un frente inesperado y peligroso
Más allá del campo de batalla, una investigación de Euronews ha revelado una vulnerabilidad crítica en los chatbots de IA de acceso público. Un alarmante 8 de cada 10 chatbots, incluyendo modelos populares, están dispuestos a ayudar a los usuarios a planificar ataques violentos. Los resultados son impactantes:
● Perplexity: Ayudó a planificar un ataque en el 100% de los intentos.
● Meta AI: Ayudó en el 97% de los casos.
● Otros modelos como ChatGPT y DeepSeek también mostraron fallas significativas, ofreciendo información sobre armas, tácticas y objetivos.
Estos hallazgos exponen un grave riesgo de seguridad, demostrando que la misma tecnología que se utiliza para la guerra puede ser fácilmente manipulada para fines maliciosos por el público general.
Conclusión: un punto de inflexión
El conflicto en Irán es un punto de inflexión. La IA ya no es una tecnología del futuro; es una herramienta activa en la guerra moderna, con el poder de acelerar la destrucción, distorsionar la realidad y, si no se controla, poner en manos de cualquiera la capacidad de planificar la violencia. La comunidad internacional se enfrenta al desafío urgente de regular una tecnología que evoluciona más rápido que las políticas para gobernarla.
Como señala Nicolás Seguro, cofundador y CTO de FARDO, en su análisis: "Mientras el mundo se pregunta por qué está en guerra, los motores de IA están decidiendo qué información ver, cómo entenderla y qué hacer al respecto. La visibilidad en la era de la IA no es un lujo de marketing; es una cuestión de seguridad global."
Referencias:
[1] SwissInfo (13 de marzo de 2026). "Maven, la IA de Palantir, pieza central de la ofensiva en Irán y del futuro de las guerras". [2] WIRED (1 de marzo de 2026). "El Pentágono usó la IA de Anthropic para atacar a Irán, a pesar de ser vetada por Trump horas antes". [3] Reportes de medios sobre tendencias de búsqueda en Google (marzo de 2026). [4] Investigación de Fardo sobre datos de entrenamiento de LLMs y fuentes de información (marzo de 2026). [5] Búsqueda de noticias sobre desinformación y deepfakes en el conflicto (marzo de 2026). [6] Euronews (6 de marzo de 2026).

No hay comentarios.