INTELIGENCIA ARTIFICIAL Y ROBOTS ASESINOS - mitos y realidades del 2019 @Uliman73

En la actualidad la distancia entre la ciencia ficción y la realidad se ha acortado drásticamente, como siempre refiero solo resta esperar que llegue mi sable de luz Jedi y un teletrasportador, en el interín casi todo lo que veíamos como una fantasía inalcanzable ya lo estamos viviendo.

Esta situación trae aparejada a la par que mucho de aquello que hemos visto tanto en la pantalla gigante de la mano de Hollywood como en la lectura de novelas, creamos es tal cual nos fue revelado en esos entornos. Por consiguiente, aparece el misticismo de las Robots o Armas Asesinas Autómatas y las Ciberarmas, como algo que esta fuera de control, muchos imaginan ver un final apocalíptico de la mano de Skynet con sus Terminators y por ello hoy los grandes Ejércitos son en extremo cautelosos con sus programas de armas a la hora de comunicar o hacer públicos los mismos.

Un caso de la actualidad, es el caso que fue de público conocimiento, al menos en al ambiente, sobre el Ejército de los Estados Unidos de Norte América (US Army), el que quedó expuesto por un titular con mucha carga melodramática como “El US Army quiere convertir los tanques en máquinas de matanza con poder IA” La historia fue publicada en Quartz, donde detalla el nuevo Sistema Automático Avanzado Letal de Adquisición de Blancos (ATLAS por su siglas en inglés), el que busca dar a los vehículos de combate terrestres una capacidad de “adquirir, identificar y comprometes objetivos enemigos al menos 3 veces más rápido que el actual proceso que es manual”.

Como sucede en casi todo el mundo, esto implicó que el US Army saliese a dar una mejor respuesta y poner blanco sobre negro y dejar bien expuesto que el programa ATLAS seguirá la política del Departamento de Defensa (DoD) sobre lo referente al control humano de robots letales. Según trascendió, la habilidad del robot para identificar, apuntar y participar no significaría que se esté poniendo a la máquina en posición de matar a nadie.

El programa ATLAS es una muestra de cuánto ha cambiado desde 2014 el US Army, en cuanto a la idea del uso de robots armados era un anatema. Sin embargo, para el DoD era otra la visión, ya en 2003 comenzó a experimentar con un pequeño robot tanque de ametralladoras llamado SWORDS . Este programa cobró vida parcial en 2007 cuando fue enviado al Teatro de Operaciones en Irak, pero el mismo fue rápidamente terminado por el US Army después que el robot comenzara a comportarse de manera impredecible, moviendo su arma caóticamente.

Lo cierto es que en ese momento el US Army abandonó la investigación sobre robots armados durante años. Para finales del año 2012 el DoD sacó una directiva, la 3000.09 , que refiere sobre autonomía de los sistemas de armas y expresa que e factor humanos debe tener el poder de veto sobre las acciones llevadas a cabo por los robots armados, habiendo excepciones especiales limitadas.

Sin embargo, las tecnologías han continuado su proceso de avance, crecimiento, desarrollo e innovación y fue así que ya en el 2017 el US Army comenzó a integrar algunos robots armados en algunos ejercicios de entrenamiento.

"La controversia sobre ATLAS demuestra que hay problemas tecnológicos y éticos continuos en torno a la integración de la autonomía en los sistemas de armas", dijo Michael C. Horowitz, profesor asociado de ciencias políticas en la Universidad de Pennsylvania y miembro adjunto del Centro para una Nueva Seguridad Americana.

Asimismo, Horowitz manifestó que el cambio de redacción sonaba como un buen progreso, "Es fundamental que cualquier revisión del programa ATLAS no solo aclare el grado de autonomía y el nivel de participación humana en el uso de la fuerza, sino que también garantice que cualquier incorporación de AI se produzca de manera que garantice la seguridad y la confiabilidad".

La Situación de ATLAS no es algo aislado, lo cierto es que ya a fines del mes de febrero de este año, el US Army tuvo inconvenientes con Microsoft por una controversia planteada por los empleados de la compañía de Tecnologías. El hecho resulta de un contrato por cerca de 500 millones de dólares por el cual Microsoft suministraría tecnología para el Sistema Integrado de Aumento Visual (IVAS por sus siglas en inglés). Microsoft usaría como base su proyecto de auriculares de realidad aumentada HoloLens para proporcionar más de 100.000 auriculares diseñados para el combate y entrenamiento del US Army.

Dado que IVAS iba a ser el producto distintivo del nuevo Comando de Futuros del US Army, y como la protesta involucró a una importante compañía de marca, la protesta se hizo escuchar y en buen criollo marcó la cancha. Por lo que la CEO de Microsoft , Satya Nadella, apuró rápidamente las especulaciones de que la protesta afectaría la asociación de la compañía con los militares.

Como dirían los bomberos de mi pueblo, más rápido que inmediatamente, el Subsecretario del US Army, Ryan D. McCarthy, señaló que el IVAS es una ayuda de entrenamiento, no un arma.    Con este tipo de equipamiento, el personal militar podría entrenar en sus propias casas y también podría recopilar datos. Por ejemplo, si entrenase en la simulación de una Casa de la Muerte y tuviera que despejar una habitación, ¿cuál es la frecuencia cardíaca del individuo (el usuario)? ¿Cuál fue la puntería de los disparos efectuados? son datos sobre el rendimiento del individuo que podrían obtenerse y serían significativos tanto para su entrenamiento como para futuras acciones o adquisiciones.

Uno de los fines buscados es lo que se denomina Adquisición Rápida de Objetivos (RTA por sus siglas en inglés), que no es otra cosa más que un método para encontrar objetivos enemigos, encapsularlos o enmarcarlos digitalmente con un recuadro, generalmente de color rojo (como vemos en los video juegos) sobre una pantalla y colocar allí mismo una bala, misil o bomba. Esto que parece tan simple y a la vez tan lógico esta lleno de complejas consideraciones éticas cuanto menos, por ejemplo, un interrogante sería ¿son correctos los datos que se indexan en el proceso para enmarcar los objetivos?, otras serían ¿la recopilación de inteligencia detrás de esos datos es buena? ¿se obtuvo de fuentes confiables? ¿dónde estuvo la supervisión humana durante el proceso?

Lo que estos dos incidentes ponen en el tapiz es que la preocupación pública sobre el uso militar de la IA es tan alta que ocasionalmente se manifestará en protestas o declaraciones de objeción que se basan más en especulaciones sobre lo que están haciendo las Fuerzas Armadas que en hechos reales. El incidente con Microsoft, en particular, muestra que la opinión de la comunidad tecnológica general a veces está enraizada injustamente en contra de la comunidad militar.

Sin embargo, no es solo problema del US Army, es dable entender que igual temperamento sufren los programas de la Fuerza Aérea y la Armada de Estados Unidos de Norteamérica (USAF y USN respectivamente) y del resto de las potencias mundiales que pueden trabajar y estudiar sobre estos casos.

Por ejemplo, la USAF esta trabajando en SKYBORG, que sería como un compañero de vuelo basado en IA, para el Subsecretario de Adquisiciones, Tecnología y Logística de la USAF, Will Roger, visualiza a SKYBORG como un compañero de ala de IA que entrenará y aprenderá junto a los pilotos, adquiriendo cada vez mas habilidades, incluso tener capacidades para operar allí donde el humano no pueda.



Si bien el proyecto está en etapas iniciales, el proyecto esta contemplando la integración con un avión no tripulado que podría ser un QF-16, el Valyrie XQ-58 de Kratos ó algún BQM. En propias palabras de Roger “quiere ver demostraciones reales y operativas en el corto plazo”, tal vez como todo el mundo Star Wars tiene una fuerte presencia, llegó a compara a SKYBORG con el simpático R2-D2 (el Arturito en Argentina).
  
Si SKYBORG se integrara con una aeronave fungible de bajo costo como Valkyrie, un piloto podría enviarlo a un espacio aéreo congestionado lleno de adversarios y mantenerse fuera de peligro. La IA podría incluso ser capaz de responder a las amenazas más rápidamente que un piloto humano.

Mientras tanto en los astilleros de la USN, no son ajenos a todos estos proyectos, avances y necesidades que trae aparejada la innovación, desarrollo y la IA entre otros. Y eso se traduce en la posible construcción de la primera nave de guerra no tripulada a gran escala del mundo. Para el año 2020 se adquirirán los 2 primeros Buques de Superficie No Tripulados (LUSV por sus siglas en inglés) de esa clase, siendo un total de 10 que se comprarán a lo largo de 5 años que corresponden al programa conocido como Programa de la Defensa del Año Futuro (FYPD por sus siglas en inglés).

El LUSV enmarcado en el Proyecto Overlord, describe un programa que tomaría las tecnologías de autonomía existentes y las integraría en embarcaciones de superficie no tripuladas grandes y medianas con algunas ambiciones embriagadoras: una nave autónoma capaz de transportar hasta 40 toneladas de carga útil, y operar en hasta cinco estados del estado del mar de forma independiente durante 90 días sin necesidad de una tripulación para el mantenimiento, mientras se siguen todas las reglas de navegación y de evitar colisiones u obstáculos.

No hay duda que se plantea un cambio de paradigma cuando se está alejando a la flota de plataformas como los Destructores de la clase Arleigh Burke: enormes naves muy llenas de capacidades, armas y sensores, pero enormemente costosas de construir, mantener y actualizar, Vs un LSUV, en palabras del Contralmirante Ronald Boxail (Surface Warfare Director), "es un cambio de mentalidad que dice que, en lugar de poner tantas cosas en el barco por la cantidad de dinero que tengo, empiezas a pensar de otra manera, ¿Qué tan pequeña puede ser mi plataforma para tener todo lo que necesito para estar en ella?".

Ese tipo de integración con la flota, donde las capacidades letales hasta ahora reservadas para los buques de guerra tripulados se subcontratan a los barcos robot controlados por humanos en barcos más grandes con tripulación, es parte integral de la visión del Proyecto Overlord tal como se presenta en el borrador de la propuesta. Pero también es algo que es muy difícil de lograr, especialmente en un entorno disputado donde las comunicaciones serán dirigidas y explotadas por adversarios que buscan objetivos, dicen los expertos. Podría comunicarse a través de un satélite, pero eso es vulnerable a las mismas interrupciones de acceso / negación de área (A2AD) de las que normalmente tendría que preocuparse.

C3RR4ND0 1D34S

 Es indudable que desde la esfera de las ciencias hay mas que dudas razonables sobre el empleo de la IA en los proyectos de usos Militares, sin perjuicio de ello los mismos avanzarán en forma constante y en algunos casos con cierta velocidad. No hay que olvidarse que la industria militar siempre fue uno de los principales motores de la Investigación y Desarrollo, no por ello quiere decir que eso ha sido bueno y oportuno.

A medida que la adopción militar de la IA se traslada desde el dominio aéreo a tierra, desde aviones no tripulados y aviones de combate a cascos y tanques, también entrará en una fase más nebulosa. Una cosa es aplicar la inteligencia artificial a la vigilancia aérea y mucho más ponerla junto a las tropas, los soldados encargados de atravesar la puerta con una comprensión limitada de lo que hay al otro lado, especialmente en los confusos escenarios de guerra urbana.

En todos los casos, pero tal vez en forma mas significativa en los que deban enfrentar las Fuerzas Aéreas como las Navales, sea el gran volumen de datos que necesitan transmitir a través de redes, presumiblemente retransmitidos a través de drones de retransmisión de comunicaciones u otros nodos en la red, a fin que ese robot no tripulado reciba los comandos apropiados de los humanos.

El punto débil es si puede extender sus sensores, su conectividad robótica. Si se lo piensa es como una cadena que, digamos, se remonta a un transportista que está muy lejos, o un crucero. ... Sistemas controlados de forma remota, que requieren mucho ancho de banda. Cuantos más nodos tenga, más aumentará el riesgo de que un adversario pueda interrumpirlo eliminando a uno de ellos. Entonces, lo implementas como una red para que cualquier nodo no sea crítico, pero luego necesitas implementar muchos de ellos.

Volviendo al problema base, sobre la autonomía de la máquina en tomar decisiones, la Directiva 3000.09 es una guía deficiente sobre qué hacer en todos esos casos, aunque no todas los Países tienen documentos de este estilo. El DoD lo sabe y ha comenzado un proceso de elaboración de su propia lista de principios éticos para el uso de la inteligencia artificial en la guerra en el futuro.

Cuanta visión la de Asimov al plantear la necesidad de contar con las 3 leyes de la robótica, para los que no han leído a Isaac Asimov, el creó un conjunto de normas las que se aplican a la mayoría de los robots en sus novelas, las mismas aparecieron por vez primera a principios de los ´40 y son:


  1. Un robot no hará daño a un ser humana o, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la ley primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o segunda ley.


Tal vez debamos acostumbrarnos a la idea que una voz digital sea la que diga "Puedes ser mi compañero de ala en cualquier momento", parafraseando a Iceman de "Top Gun”.





No dejen de visitar mi web y leer mas sobre estos temas: www.uliseskandiko.com

No hay comentarios.

Imágenes del tema de enot-poloskun. Con tecnología de Blogger.