Header Ads

SEGURIDAD PUBLICA 4.0 - INTELIGENCIA ARTIFICIAL + ROBOTICA - @uliman73


Ciertamente una de las cosas más difíciles cuando escribo, es la de darle vida al título del artículo, puesto que en esas 5 o 6 palabras hay que tratar de encerrar todo el espíritu de lo que se quiere transmitir, y este no ha sido la excepción. En una charla de ascensor es más posible que pueda uno verter todo el conocimiento que se quiere transmitir, pero no estamos en el ascensor en este momento, ni tampoco estamos sentados en un Sturbucks compartiendo un latte macchiato donde plácidamente intercambiaríamos ideas sobre el tema, así que el título de este artículo puede que sea poco sugestivo, pero denme unos minutos de su tiempo para que podamos explorar juntos lo que hoy día en materia de Policiamiento, Inteligencia e Investigación Criminal se está tratando de la mano de la Inteligencia Artificial (IA) y la Robótica, todo para mejorar y optimizar la Seguridad Pública de las ciudades.

Siempre que trato esto temas de innovación y desarrollo hago mis referencias obligadas a íconos como Star Wars o Star Trek, es la parte nerd que hay en todos, pero lo cierto es que la tasa de innovación en el campo de la IA y la robótica es asombrosa. Los últimos años han visto avances significativos en el reconocimiento y generación de imágenes, así como en el reconocimiento del habla, la comprensión del lenguaje y la navegación de vehículos. Si bien la inteligencia a nivel humano sigue siendo una noción distante, la IA y la robótica ya están más extendidas en la sociedad de lo que a menudo se percibe, y la tecnología se aplica en diferentes industrias en todo el mundo, incluidos la atención médica, la automoción, los servicios financieros, el transporte y la logística. En el campo de lo que podríamos definir como de la Seguridad Pública, los avances en IA y robótica también pueden traer oportunidades y riesgos, los cuales requieren un enfoque estratégico y la inversión de esfuerzos y recursos.

Si bien el impacto de la IA y la robótica en el crimen y la seguridad es ciertamente la consideración más relevante para el ámbito de la Seguridad Pública, es pertinente señalar que tanto la IA como la robótica son temas complejos y altamente interconectados, que se refieren a una variedad de otros aspectos económicos, legales, éticos, políticos, e incluso demográficos, sanitarios y medioambientales. Maximizar los beneficios y minimizar los riesgos de la IA y la robótica requiere una comprensión abierta y completa del problema y la participación colectiva de un amplio espectro de partes interesadas, tanto del sector público como del privado. No deja de ser una espada de dos filos.

IA + ROBÓTICA AL SERVICIO DE LA SEGURIDAD PÚBLICA

En gran medida las actividades propias de la Seguridad Pública como las tareas de Policiamiento, Inteligencia e Investigación, se basan en la información. La información se recopila, procesa y emplea para prevenir o controlar el crimen. Para que estas tareas sean efectivas, se requieren grandes cantidades de información o datos sobre el comportamiento humano, recolectados de una variedad de fuentes. En este sentido, la IA y la robótica están bien adaptadas para transformar esas tareas, al mejorar la eficiencia con la que puede adquirir, analizar y actuar sobre la información.

Entonces surgen un par de interrogantes que hacen a la esencia de este artículo, tales como: ¿Cómo pueden contribuir la IA y la robótica al futuro de la vigilancia policial? ¿Cómo cambiarán estas tecnologías la forma en que funciona la Seguridad Pública y sus órganos de trabajo?

Para comenzar a tener una respuesta inicial a estos interrogantes, veremos que, a nivel internacional en los diversos Cuerpo Policiales y Agencias de Seguridad Pública, existen, en términos generales, cuatro categorías principales de cómo la IA y la robótica pueden interactuar con lo que podríamos definir como el espacio Ciber-Físico en el contexto de la aplicación de la ley: 1) Predicción y análisis, 2) Reconocimiento, 3) Exploración, y 4) Comunicación. Si bien no hay límites estrictos entre estas categorías, tienen diversos grados de complejidad e interacción con el entorno, como se puede ver en la Imagen que está a continuación. Cuanto mayor sea el grado de complejidad del sistema y cuanto más caótico sea el entorno en el que debe operar el sistema, más difícil será el desarrollo e integración del sistema en la aplicación de la ley.



Ahora bien, ya en un plano de trabajo menos teórico, Interpol a definido que todas las actividades de IA y robótica que se están trabajando han de encontrarse en alguno de los siguientes estadios: Concepto, Desarrollo, Evaluación y Aprobado. En base a este formato identificando los 4 posibles estadios, veremos en el siguiente cuadro donde se está trabajando e intervienen las actividades que involucran a la IA y la robótica, de esta forma tendremos una más clara respuesta a nuestros interrogantes iniciales.

ETAPA
ACTIVIDADES
CONCEPTO
·         Algoritmos IA para identificar vehículos sospechosos o robados.
·         Herramientas analíticas para análisis de audio y video.
·         Aprendizaje automático para el análisis de medios basados en texto incautados para identificar inteligencia potencial.
·         Herramientas de IA para mejores y más justas investigaciones criminales.
PROTOTIPOS
·         Simulación basada en agentes para soporte de decisiones en operaciones.
·         Extracción de información basada en argumentos para apoyar la recopilación y el procesamiento de informes de delitos en línea.
·         Análisis contextual de la inteligencia recogida.
·         Traducción automática de audio.
EVALUACIÓN
·         Sistemas policiales predictivos para apoyar a los tomadores de decisiones para asignar recursos.
·         Patrullas drones para cárceles y fronteras.
·         Herramientas de análisis de audio y video para monitorear prisioneros peligrosos.
·         Máquinas de toma de declaraciones para apoyar investigaciones criminales.
·         Sistema forense digital abierto escalable.
·         Drones de vigilancia.
·         Sistema para detectar, etiquetar, rastrear y responder a personas y actividades sospechosas.
·         Robots de comunicaciones.
·         Aprendizaje automático para analizar voces en llamadas telefónicas.
·         Sistemas de vigilancia para vigilar y detectar conductas delictivas.
·         Transmisión en vivo de patrulla generada por IA.
·         Biometría facial para detectar comportamientos sospechosos, identificar delincuentes y buscar personas de interés.
APROBADO
·         IA bot para identificar información legalmente privilegiada.
·         Sistema de anticipación del crimen para predecir las características temporales y espaciales del crimen, facilitando así la aplicación de la ley para optimizar sus recursos y asegurar una presencia policial efectiva.

Vale la pena recordar que, si bien este cuadro es abarcativo, de ninguna manera pretende ser exclusivo ni excluyente de otras posibles actividades que la IA y la robótica puedan desempeñar en la Seguridad Pública, sino que simplemente son los mas reconocidos y en trabajo en los diversos Cuerpos Policiales y Agencias de Seguridad Pública.

ETICA Y MORAL HUMANA VS IA + ROBÓTICA, UN PEQUEÑO DILEMA

En un artículo previo, vimos como impacta el tema de la automatización en la toma de decisiones, más aún cuando de esa decisión dependen vidas, fue el caso que tratamos sobre la IA en las Fuerzas Armadas de los Estados Unidos de Norteramérica (USA). Ahora bien, en los temas de Seguridad Pública no hay excepción alguna, y este “tema” es un “TEMA”.

Si bien existe un amplio espectro de posibles casos de uso de IA y robótica en la Seguridad Pública, un tema transversal común asociado con muchos de estos casos de uso es la mejora de las capacidades de vigilancia. Por supuesto, con cualquier tipo de vigilancia, el impacto potencial en el derecho fundamental a la privacidad, tal como lo reconoce la Declaración Universal de los Derechos Humanos (DUDH) y el Pacto Internacional de Derechos Civiles y Políticos (PIDCP), así como los numerosos otros Instrumentos legales internacionales y regionales, es una consideración esencial. De hecho, a medida que el uso de la IA y la robótica por parte de los Cuerpos Policiales y Agencias de Seguridad Pública se generaliza en toda la sociedad, tocando cada vez más las vidas de los ciudadanos, se vuelve cada vez más importante para los agentes del orden público garantizar que el uso de estas tecnologías sea ético.

Parte del desafío de descifrar el uso ético de la IA y la robótica es que la aplicación de la ley y la sociedad civil vienen de diferentes perspectivas. El rol principal de la ley es, en esencia, proteger a la comunidad y a sus ciudadanos de cualquier daño y, al hacerlo, debe encontrar un equilibrio entre la seguridad y la privacidad.

La aplicación de la ley, al mismo tiempo, no está separada ni de la comunidad ni de sus ciudadanos, lo que significa que, si sobrepasa sus límites a través de una supuesta conducta o acción no ética, se expone a sí misma a ser responsable por los ciudadanos a los que sirve. En consecuencia, la aplicación de la ley debe considerar cuidadosamente el uso de la IA y robótica, en particular con respecto a la colocación de sensores y el uso de los datos recopilados.


Así como hemos visto que el Departamento de Defensa (DoD) de USA a emitido una serie de documentos para reducir y minimizar los riesgos asociados al uso de IA y robótica en la automatización de decisiones, algunos organismos como Interpol, tienen algunas recomendaciones no vinculantes al respecto, en la que entienden que, para evitar posibles responsabilidades, el uso de IA y robótica en la aplicación de la ley debe caracterizarse por las siguientes características:

  • Equidad: no debe violar los derechos, como el derecho al debido proceso, la presunción de inocencia, la libertad de expresión y la libertad de discriminación.
  • Responsabilidad: se debe establecer una cultura de responsabilidad a nivel institucional y organizativo.
  • Transparencia: el camino que toma el sistema para llegar a una cierta conclusión o decisión no debe ser una "caja negra".
  • Explicabilidad: las decisiones y acciones de un sistema deben ser comprensibles para los usuarios humanos.


Para minimizar el riesgo que el uso de estos sistemas por parte de los Cuerpos Policiales pueda resultar en una violación de los derechos fundamentales de los ciudadanos, varias entidades han intervenido para tratar de mejorar la ambigüedad de la responsabilidad legal que rodea el uso ético de IA y la robótica en general. y para gestionar mejor la óptica política defendiendo la "ética por diseño" en sistemas de IA y sistemas robóticos. En particular, esto incluye iniciativas tomadas por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) para emitir un tratado global sobre la Ética de los Sistemas Autónomos e Inteligentes (Diseño Éticamente Alineado), para alinear las tecnologías con los valores morales y los principios éticos. El Parlamento Europeo también ha propuesto un código de conducta de asesoramiento para los ingenieros de robótica para guiar el diseño ético, la producción y el uso de robots, así como un marco legal que considere el estatus legal de los robots ("persona electrónica") para garantizar ciertos derechos y responsabilidades.

C3RR4ND0 1DE4S

En la actualidad, la comunidad de los Cuerpos Policiales y Agencias de Seguridad Pública está considerando a los sistemas de IA y sistemas semiautónomos como instrumentos con el fin de capacitar al personal en el desempeño de sus funciones. Sin embargo, el potencial de sistemas más avanzados para automatizar completamente el trabajo va mucho más allá de esto, lo que genera importantes preguntas sobre el futuro mismo de la aplicación de la ley como una profesión que los responsables de la política tendrán que considerar cuidadosamente en los próximos años. Al mismo tiempo, la automatización también puede brindar la oportunidad de considerar nuevas perspectivas para la aplicación de la ley, como reorientar los esfuerzos de los agentes de la ley para involucrarse con la comunidad y las funciones más sociales y humanas que se cree que están más allá incluso de las más importantes máquinas avanzadas.

Por otro lado, se debe esperar que la armamentización de la IA y la robótica con fines criminales o terroristas aumente con el tiempo, en particular a medida que la IA y la robótica se integren más en el funcionamiento de la sociedad y, a medida que disminuyen los costos y el conocimiento técnico.

Los avances en la computación cuántica, por ejemplo, ayudarán a los organismos encargados de hacer cumplir la ley a utilizar Big Data de manera más eficaz para prevenir y resolver delitos. La velocidad es el apalancamiento que la computación cuántica ofrece a la IA, especialmente en el aprendizaje automático. La computación cuántica tiene el potencial de detectar patrones extremadamente rápido dentro de grandes conjuntos de datos, posiblemente incluso para acceder a todos los elementos en una base de datos al mismo tiempo para identificar similitudes en cuestión de segundos. Aunque es poco probable que los delincuentes sean los primeros en adoptar la computadora cuántica, es factible que exploren igualmente el uso de estos sistemas como parte de sus empresas criminales. Sin embargo, estas tecnologías son solo herramientas, y una herramienta es tan buena como su usuario.

SDG


No dejen de visitar mi web y leer mas sobre estos temas: www.uliseskandiko.com

No hay comentarios.

Copyright 2008 - 2016: CXO Community - Todos los derechos reservados. Imágenes del tema de enot-poloskun. Con tecnología de Blogger.