ChatGPT, Bard y Bing ⛔ exponen los datos de millones de usuarios

Presente en las principales aplicaciones de IA Generativa de OpenAI, Google y Microsoft, Check Point Research ha ayudado a detectar y cerrar esta brecha, ayudando a evitar la filtración de datos confidenciales de las decenas de millones de usuarios que utilizan estas herramientas de IA.


Aunque muchos de los servicios de inteligencia artificial afirman que no almacenan en caché la información enviada, ya se han producido varios incidentes, específicamente con ChatGPT, que han expuesto datos sensibles por vulnerabilidades en la construcción actual de estos sistemas.

Check Point Research, la división de Inteligencia de Amenazas Check Point® Software Technologies Ltd. (NASDAQ: CHKP), un proveedor líder especializado en ciberseguridad a nivel mundial, ha reportado y ofrecido solución a una nueva vulnerabilidad en los Modelos de Lenguaje Amplio (LLM) utilizados en ChatGPT, Google Bard, Microsoft Bing Chat y otros servicios de IA generativa.

Cada vez es más común que los desarrolladores se respalden en la IA para el desarrollo de código de software. Sin embargo, además de una gran facilidad y rapidez de respuesta, estas herramientas también pueden convertirse en la mayor fuente accidental de filtraciones de datos.

La combinación de usuarios despreocupados y gran volumen de información compartida es perfecta para los ciberdelincuentes que buscan explotar brechas como esta para obtener datos como números de tarjetas de crédito, e incluso los registros completos de las consultas realizadas en estos chats.

Check Point suple la ausencia de barreras de ciberseguridad nativas

Como parte de su solución, Check Point Software pone al servicio de las empresas una herramienta de filtrado de URLs para la identificación de estas webs de IA generativa, con una nueva categoría agregada a su conjunto de controles de gestión de tráfico. De esta manera, las compañías pueden mantener un mayor control e incluso bloquear el uso no autorizado de aplicaciones de IA generativa, añadiendo un control granular y seguro de acceso web para entornos locales, la nube, dispositivos móviles y otros endpoints.

Además, las soluciones de firewall y firewall as-a-service de Check Point Software también incluyen la prevención de pérdida de datos (DLP). Esto permite a los administradores de seguridad de red bloquear la carga de ciertos tipos de datos específicos (código de software, información personal identificable, información confidencial, etc.) al utilizar aplicaciones de IA generativa.

Así, es posible activar medidas de seguridad para protegerse contra el uso indebido de ChatGPT, Bard o Bing Chat. La configuración se realiza en pocos clics a través de la política de seguridad unificada de Check Point Software.


El uso de la IA generativa para crear nuevos ciberataques

Desde el lanzamiento comercial de ChatGPT de OpenAI a fines de 2022, Check Point Research (CPR) ha estado analizando la seguridad y protección de las herramientas populares. Mientras tanto, la industria de IA generativa se ha centrado en promover sus beneficios revolucionarios, minimizando los riesgos de seguridad para las empresas y los sistemas de TI.

El análisis de ChatGPT4 realizado por Check Point Research (CPR) ha destacado posibles escenarios para la aceleración de delitos cibernéticos. CPR ha presentado informes sobre cómo los modelos de IA pueden utilizarse para crear un flujo completo de infección, desde el spear-phishing hasta la ejecución de un código de shell inverso, puertas traseras e incluso códigos de cifrado para ataques de ransomware.

La rápida evolución de los métodos de ataque orquestados y automatizados plantea preocupaciones serias sobre la capacidad de las empresas para proteger sus activos clave contra ataques altamente evasivos y perjudiciales. Si bien OpenAI ha implementado algunas medidas de seguridad para evitar la generación de contenido malicioso en su plataforma, CPR ya ha demostrado cómo los ciberdelincuentes encuentran formas de evadir tales restricciones.

Si las empresas no tienen una seguridad efectiva para este tipo de aplicaciones y servicios de IA, sus datos privados podrían verse comprometidos y pasar a formar parte de las respuestas de estas. Esto implica que los datos confidenciales estarían potencialmente disponibles para un número ilimitado de usuarios, incluyendo por supuesto los propios ciberdelincuentes.
 

The AI Matrix: El principio del fin

No hay comentarios.

Imágenes del tema de enot-poloskun. Con tecnología de Blogger.