INTELIGENCIA ARTIFICIAL, ÉTICA Y DEFENSA, REQUIEREN COMO EJE A LA CIBERSEGURIDAD @Uliman73



En varias oportunidades he tratado el tema del empleo de la Inteligencia Artificial (IA), en varias oportunidades su empleo en el ámbito del campo de batalla y su desarrollo en las Fuerzas Armadas como elemento de entrenamiento entre otros, también expuse sobre las cuestiones éticas que se producen en el empleo de automatización y robotización, pero en esta oportunidad la idea es conjugar todo ello y encontrar el eje que los sostienes de momento.

Pero previo a ello, vale la pena ver como el mercado de la IA está creciendo, independientemente del Covid19, a una velocidad sin precedentes no vista desde la aparición de Internet comercial. Las estimaciones varían, pero se supone que el mercado global de IA crecerá entre un 30% y un 60% por año. El gasto en Defensa Militar en proyectos de IA, obviamente en las Potencias o Países más desarrollados, está aumentando a un ritmo aún mayor cuando se incorporan temas como IA portátil y sistemas que dependen de la IA. Las inversiones en Defensa y Seguridad, como la realidad aumentada, el reconocimiento automático de objetivos y la robótica táctica, no avanzarían al ritmo actual sin la presencia de IA para respaldar la realización de estos conceptos.
Para el mundo de los negocios de la industria de Defensa y Seguridad, la belleza de la economía es la capacidad de respuesta. Con una visualización o señal de "orden de compra" identificada, el mercado trabaja para satisfacer la necesidad del comprador. Las potentes señales de compra conducen a un rápido desarrollo, implementación y despliegue de soluciones, sabiendo que el tiempo de comercialización es importante.
Una mirada con un gran sesgo de preocupación se basa en analogías anteriores cuando el tiempo de comercialización prevaleció sobre intereses en conflicto, comprar lo que se ofrece y no lo que se necesita. Un ejemplo son los primeros años de Internet comercial, la introducción del control remoto del Control de Supervisión y la Adquisición de Datos (SCADA por sus siglas en inglés) y la fabricación, y el rápido crecimiento de las aplicaciones para teléfonos inteligentes. En cada uno de estos casos, la seguridad no era lo primero en la mente del desarrollador. El tiempo de comercialización era la prioridad. Esta exposición aumenta con una búsqueda económicamente sólida de utilizar productos comerciales estándar como sensores, conjuntos de chips, funciones, controles eléctricos y dispositivos de almacenamiento que se pueden comprar en el mercado civil por una fracción del costo. 
El Departamento de Defensa (DoD) de los Estados Unidos de Norteamérica ha adoptado cinco principios éticos para la futura utilización de la IA por parte del DoD. Estos principios son:
1.    Responsable,
2.    Equitativo,
3.    Trazable,
4.    Confiable y
5.    Gobernable. 

El denominador común en estos cinco principios es la ciberseguridad. Si la ciberseguridad de la aplicación de IA es inadecuada, estos cinco principios adoptados pueden verse en peligro y ya no dirigir la implementación del DoD.

La futura implementación de IA aumenta la superficie de ataque radicalmente, y es preocupante la capacidad de detectar la manipulación de los procesos, porque, para los operadores, los procesos de IA subyacentes no se entienden o supervisan con claridad. Un sistema que detecta objetivos a partir de imágenes o de una captura de transmisión de video, donde la IA se usa para identificar firmas de objetivos, generará un soporte de decisión que puede conducir a la destrucción de estos objetivos. Los objetivos están comprometidos y neutralizados. Uno de los principios éticos para la IA es "responsable". ¿Cómo nos aseguramos de que la orientación sea precisa? ¿Cómo protegemos que ni el algoritmo esté dañado o que los sensores no estén siendo manipulados para producir datos espurios? Se convierte en una cuestión de seguridad.
En un conflicto mayor, donde las fuerzas terrestres no pueden inspeccionar los efectos en el terreno, el ciclo de retroalimentación que invalida las decisiones respaldadas por la IA podría no llegar a los operadores en semanas. O podría surgir después de que termine el conflicto. Es probable que un sistema deshonesto produzca un apoyo de decisión espurio durante más tiempo del que estamos dispuestos a admitir.
De los 5 principios, "equitativo" es el área de mayor control humano. Incluso si controlar los sesgos integrados en un proceso es difícil de detectar, está a nuestro alcance. "Confiable" se relaciona directamente con la seguridad porque requiere que los sistemas mantengan la confidencialidad, integridad y disponibilidad.
Si el principio "confiable" requiere la verificación y prueba de ciberseguridad, tenemos que darnos cuenta de que estos sistemas de IA son parte de estructuras técnicas complejas con una amplia superficie de ataque. Si se pone en peligro el principio "confiable", entonces "rastreable" se vuelve problemático, porque si la integridad de la IA es cuestionable, no es un hecho que "el personal relevante posea una comprensión adecuada de la tecnología".

El principio "responsable" aún puede ser válido, porque el personal desplegado toma decisiones sólidas y éticas basadas en la información proporcionada, incluso si un sistema comprometido alimentará información falsa al tomador de decisiones. El principio "gobernable" actúa como salvaguarda contra "consecuencias no deseadas". Lo desconocido es el tiempo desde el momento en que ocurren consecuencias no deseadas y hasta que los operadores del sistema comprometido entienden que el sistema está comprometido.
Es evidente cuando un objetivo que debe ser golpeado se pierde repetidamente. Los efectos pueden ser observados. Si no se pueden observar los efectos, ya no es un hecho que se identifiquen las "consecuencias no deseadas", especialmente en un fluido espacio de batalla multidominio. Un sistema de IA comprometido para la adquisición de objetivos puede inducir a error a los objetivos, adquiriendo no objetivos ocultos que son un desperdicio de recursos y disponibilidad del sistema de armas, exponiendo a las fuerzas amigas para la detección. El tiempo para detectar tal compromiso puede ser significativo.
Todos estos supuestos, no son tan supuestos ya que he artículos previos hemos visto como lo no deseado se ha materializado y como la falta de seguridad ha sido el puntal para ataques o errores propios. No es válido desconocer la relevancia que cobra la ciberseguridad, donde pasa a ser un elemento fundamental para el éxito de la IA. 

No hay dudas que la IA jugará un papel cada vez más importante en todos los mercados, pero por sobre manera en la Industria de la Defensa y la Seguridad. Asimismo, no cabe dudas que también será tema central para los oponentes, adversarios tradicionales y/o “chicos malos” en su búsqueda por comprometer esos sistemas y llevar adelante así su agenda.



No hay comentarios.

Copyright 2008 - 2020: CXO Community - Todos los derechos reservados. Imágenes del tema de enot-poloskun. Con tecnología de Blogger.