Análisis de los "Puntos de referencia comunes para promover la interoperabilidad en la gestión de riesgos de IA" de la OCDE | Por @FabianDescalzo

Análisis de los "Puntos de referencia comunes para promover la interoperabilidad en la gestión de riesgos de IA" de la OCDE | Por @FabianDescalzo

El reciente informe de la OCDE, "Puntos de Referencia Comunes para Promover la Interoperabilidad en la Gestión de Riesgos de IA", emerge como un hito crucial en el campo de la inteligencia artificial. Este documento no solo proporciona una visión general de alto nivel, sino que también busca armonizar la comprensión global sobre los riesgos y responsabilidades asociados con la IA. Al hacerlo, se coloca en el centro del debate sobre cómo las normativas y principios de la OCDE pueden llevar a la operación de manera efectiva en este sector en rápida evolución.

El informe de la OCDE fue una iniciativa colaborativa, discutida y revisada por el Grupo de Trabajo sobre Inteligencia Artificial de la OCDE (AIGO) y el Grupo de Expertos de la OCDE.AI en Riesgo y Responsabilidad. Escrito por Karine Perset, Luis Aranda y Rashad Abelson bajo la supervisión de Audrey Plonk, el informe también contó con aportes de delegados de AIGO, incluyendo al Consejo Asesor de la Sociedad de la Información Civil (CSISAC) y Business at the OECD (BIAC).

Objetivos clave del informe OCDE

El desarrollo representa un esfuerzo significativo para alinear los Principios de IA de la OCDE con las prácticas de Conducta Empresarial Responsable (RBC) en el ámbito de la inteligencia artificial.

No solo destaca por su amplitud y profundidad, sino también por su enfoque estratégico en establecer un marco común y armonizado para la gestión de riesgos en IA, un campo que se expande y evoluciona rápidamente.

Algunas consideraciones clave:
  1. Desarrollar un entendimiento común: Uno de los objetivos primordiales parece ser el desarrollo de un entendimiento compartido sobre los riesgos y la responsabilidad en el uso de la IA, particularmente en el contexto de los Principios de IA de la OCDE y las prácticas de Conducta Empresarial Responsable (RBC).
  2. Promover la interoperabilidad en la gestión de riesgos de IA: El informe busca establecer lineamientos comunes o "puntos de referencia" para ayudar a diferentes marcos de gestión de riesgos de IA a trabajar de manera más cohesiva y coordinada.
  3. Análisis de marcos de gestión de riesgos Existentes: Otro objetivo es analizar y comparar los marcos de gestión de riesgos de IA existentes, identificando tanto las similitudes como las diferencias clave entre ellos.
  4. Apoyar el programa AI-WIPS: contribuye al programa de inteligencia artificial en trabajo, innovación, productividad y habilidades (AI-WIPS) de la OCDE, proporcionando evidencia y análisis actualizados sobre la evolución de la IA y sus implicaciones.
  5. Orientación para políticas y prácticas empresariales: Tiene como objetivo proporcionar orientación tanto a formuladores de políticas como a empresas, para alinear sus estrategias y operaciones con los principios éticos y responsables en el desarrollo y uso de la IA.

Es clave desarrollar un entendimiento común sobre el panorama de riesgos y responsabilidades asociados con la IA. Dada la naturaleza emergente y a menudo disruptiva de la IA, este entendimiento común es crucial para garantizar que tanto los desarrolladores como los usuarios de tecnologías de IA operen dentro de un marco ético y responsable. El informe busca establecer un lenguaje común y puntos de referencia que puedan ser adoptados a nivel global, facilitando así un enfoque coherente y coordinado para la gestión de riesgos en IA.

El informe hace hincapié en la importancia de alinear los Principios de IA de la OCDE con las prácticas de RBC. Los Principios de IA de la OCDE, que abogan por IA innovadoras, confiables y que respetan los derechos humanos y los valores democráticos, proporcionan un marco sólido para guiar el desarrollo responsable de la IA. La integración de estos principios con las prácticas de RBC, que incluyen la diligencia debida, la transparencia y la responsabilidad, es fundamental para garantizar que las empresas no solo persigan la innovación en IA, sino que también se hagan responsables de sus impactos sociales y ambientales.

También contribuye significativamente al programa de Inteligencia Artificial en Trabajo, Innovación, Productividad y Habilidades (AI-WIPS) de la OCDE. Este programa proporciona a los responsables de la formulación de políticas evidencia y análisis nuevos para mantenerse al día con los cambios rápidos en las capacidades y la difusión de la IA y sus implicaciones para el mundo del trabajo. Al hacerlo, el informe no solo informa sino que también guía las políticas futuras en materia de IA, asegurando que estén alineadas con los objetivos de desarrollo sostenible y el bienestar general de la sociedad.

La colaboración internacional y la entrada de múltiples partes interesadas, incluidos los expertos en IA, responsables de políticas, representantes de la sociedad civil y del sector empresarial, refuerzan la relevancia y aplicabilidad del informe. Este enfoque colaborativo garantiza que el informe no solo sea un documento de política, sino también una herramienta práctica y un recurso para aquellos involucrados en el desarrollo, implementación y gobernanza de la IA.

👉 El primer manual de concientización y capacitación sobre ciberseguridad, privacidad e IA, puedes bajarlo sin cargo desde este enlace: Asegurando nuestra identidad digital (2023) 👈 

 

Hallazgos sobre los Marcos de Gestión de Riesgos de IA: “GOVERN”

Al mapear estos marcos, se observa una convergencia en los niveles más altos de procesos de gestión de riesgos, aunque con variaciones en la secuencia de pasos, audiencia objetivo, alcance y terminología específica.

Una diferencia notable radica en el manejo de la función 'GOVERN'. En algunos marcos, como el NIST y el ISO, las actividades de gobernanza se incluyen explícitamente bajo esta categoría, mientras que en otros, como AIDA y EU AIA, se distribuyen de manera diferente o incluso se omiten. Este aspecto es crucial, ya que la gobernanza efectiva es fundamental para asegurar que la IA se desarrolle y utilice de manera ética y responsable.

Estas variaciones reflejan la diversidad en el enfoque y el alcance de cada marco: algunos se centran en riesgos relacionados con las relaciones comerciales, otros en impactos más estrechamente vinculados a la organización y algunos abordan específicamente los riesgos para los derechos humanos y la ley. La comprensión de estas diferencias es esencial para promover la interoperabilidad y eficacia en la gestión de riesgos de IA a nivel global.

Pasos recomendados por la OCDE

El informe no solo proporciona un análisis de alto nivel de los marcos de gestión de riesgos existentes, sino que también establece una serie de pasos recomendados para garantizar una IA confiable y una conducta empresarial responsable.

La OCDE recomienda que, como parte de las prácticas de Conducta Empresarial Responsable (RBC), las empresas implementen un proceso de diligencia debida para identificar y abordar cualquier impacto adverso asociado con sus operaciones, cadenas de suministro y relaciones comerciales. Este proceso incluye seis pasos esenciales:
  1. Integrar RBC en políticas y sistemas de gestión: Las empresas deben incorporar principios de conducta empresarial responsable en sus políticas corporativas y sistemas de gestión, asegurando que estos principios guíen todas las decisiones y actividades.
  2. Identificar y evaluar impactos adversos: Es fundamental que las empresas identifiquen y evalúen los posibles impactos negativos de sus operaciones en áreas como derechos humanos, medio ambiente y gobernanza.
  3. Cesar, prevenir o mitigar impactos adversos: Una vez identificados, las empresas deben tomar medidas para detener, prevenir o mitigar estos impactos adversos, proporcionales a su gravedad y probabilidad.
  4. Realizar un seguimiento de la implementación: Las empresas deben monitorear continuamente la implementación de sus estrategias de gestión de riesgos para garantizar su efectividad y hacer ajustes cuando sea necesario.
  5. Comunicar sobre esfuerzos de diligencia debida: La transparencia es clave. Las empresas deben comunicar claramente sus esfuerzos y progresos en la implementación de prácticas de diligencia debida.
  6. Proporcionar o cooperar en la remediación: Cuando sea apropiado, las empresas deben ofrecer remedios o cooperar en la remediación de los impactos adversos causados.
Estos pasos, que deben ser simultáneos e iterativos, reflejan un enfoque proactivo y reactivo de la diligencia debida. La implementación efectiva de estos pasos garantiza que la IA no solo sea innovadora y eficiente, sino también ética, transparente y responsable.

Reforzando la gobernanza, privacidad y gestión de riesgos en la IA

Los avances en la inteligencia artificial (IA) están redefiniendo el panorama tecnológico y empresarial, trayendo consigo nuevas oportunidades y desafíos. El informe de la OCDE y los marcos de gestión de riesgos asociados han jugado un papel crucial en esbozar un camino hacia una implementación y uso responsables de la IA. La gobernanza, la privacidad y la gestión de riesgos emergen como pilares fundamentales en este esfuerzo.

La gobernanza en la IA es más que una mera regulación o cumplimiento; es un compromiso hacia la transparencia, la ética y la responsabilidad. Esto implica no solo seguir las leyes y normativas, sino también ir más allá, integrando valores éticos y de conducta empresarial responsable en el núcleo de la toma de decisiones y operaciones de la IA. Los marcos de gestión de riesgos, como los de NIST e ISO, proporcionan un esquema claro para esta integración, promoviendo una cultura de gobernanza efectiva y proactiva.

La privacidad en la IA es otro aspecto crucial. En un mundo donde los datos son el nuevo oro, garantizar la seguridad y privacidad de estos datos es esencial. La gestión de riesgos en IA debe incluir estrategias robustas para proteger la información personal y sensible, abordando preocupaciones tanto a nivel individual como colectivo. Esto requiere un enfoque holístico que abarque desde la seguridad cibernética hasta la ética en la recopilación y uso de datos.

Por último, la gestión de riesgos en la IA es un proceso dinámico y en constante evolución. Requiere una identificación proactiva y una evaluación continua de riesgos potenciales, así como la implementación de estrategias para mitigar estos riesgos. La comunicación transparente y la cooperación en la remediación de impactos adversos son fundamentales para mantener la confianza y la credibilidad en las tecnologías de IA.

La gobernanza, la privacidad y la gestión de riesgos en la IA son aspectos interconectados que requieren un enfoque integral y coordinado.


Fuente de referencia OCDE (2023), “Common guideposts to promote interoperability in AI risk management”, https://www.oecd-ilibrary.org/science-and-technology/common-guideposts-to-promote-interoperability-in-ai-risk-management_ba602d18-en [Consultado 15/11/2023]




Más contenidos que te pueden interesar sobre este tema

  1. El imperativo de la privacidad por diseño en la evolución de la IA.
  2. BDO Extra: GDPR en Argentina | Nueva Ley de Datos Personales.
  3. Garantizando la Protección de Datos: El Marco EU-US Data Privacy Framework (DPF) 2023.
  4. La importancia de contar con una Ley de Datos Personales en Argentina.
  5. 🎙️ Abundancia de información y escasez de privacidad 🚀 BDO Argentina 💪.


*****

Descubra las soluciones que BDO Argentina desarrolla en seguridad de la información, ciberseguridad, gestión y gobierno de la tecnología 👉 https://landing.bdoargentina.com/aseguramiento-de-procesos-informaticos/

🙌 Formá parte del Grupo Linkedin “𝐁𝐃𝐎 𝐀𝐑𝐆𝐄𝐍𝐓𝐈𝐍𝐀 - 𝐀𝐒𝐄𝐆𝐔𝐑𝐀𝐌𝐈𝐄𝐍𝐓𝐎 𝐃𝐄 𝐏𝐑𝐎𝐂𝐄𝐒𝐎𝐒 𝐈𝐍𝐅𝐎𝐑𝐌𝐀́𝐓𝐈𝐂𝐎𝐒” 🔗  https://www.linkedin.com/groups/12188431/ donde se comparte información para prevenir, proteger y educar.

𝐁𝐃𝐎 𝐀𝐏𝐈 seguinos en ▶ Sitio Web ▶ Blog ▶ BDO Academy ▶ Grupo Linkedin  ▶ Canal Youtube Fabián Descalzo ▶ PlayList Youtube BDO  


No hay comentarios.

Imágenes del tema de enot-poloskun. Con tecnología de Blogger.