Curso de Red Teaming AI Systems: Offensive Security for ML Models
Red Teaming de Sistemas AI es una área especializada de seguridad ofensiva que se enfoca en identificar debilidades en modelos de aprendizaje automático y pipelines de implementación a través de pruebas adversarias y simulaciones de estrés.
Este entrenamiento guiado por un instructor (en línea o presencial) está dirigido a profesionales avanzados de seguridad y especialistas en ML que desean simular ataques en sistemas AI, descubrir vulnerabilidades e incrementar la robustez de los modelos AI implementados.
Al finalizar este entrenamiento, los participantes podrán:
- Simular amenazas del mundo real a modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar la superficie de ataque de APIs y pipelines de AI.
- Diseñar estrategias de red teaming para entornos de implementación de AI.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchas prácticas y ejercicios.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una capacitación personalizada para este curso, por favor contáctenos para arreglarlo.
Programa del Curso
Introducción al Red Teaming de IA
- Comprendiendo el panorama de amenazas en la IA
- Papeles de los equipos rojos en la seguridad de la IA
- Consideraciones éticas y legales
Adversario Machine Learning
- Tipos de ataques: evasión, envenenamiento, extracción, inferencia
- Generación de ejemplos adversarios (por ejemplo, FGSM, PGD)
- Ataques dirigidos vs no dirigidos y métricas de éxito
Pruebas de Robustez del Modelo
- Evaluando la robustez ante perturbaciones
- Explorando puntos ciegos y modos de fallo del modelo
- Puestas a prueba extremas de modelos de clasificación, visión y procesamiento de lenguaje natural (NLP)
Red Teaming en Pipelines de IA
- Superficie de ataque de pipelines de IA: datos, modelo, implementación
- Explotando APIs y puntos finales inseguros del modelo
- Ingeniería inversa del comportamiento y salidas del modelo
Simulación y Herramientas
- Utilización de la Caja de Herramientas de Robustez Adversarial (ART)
- Red Teaming con herramientas como TextAttack e IBM ART
- Herramientas de aislamiento, monitoreo y observabilidad
Estrategia y Defensa del Equipo Rojo en IA Collaboration
- Desarrollando ejercicios y objetivos para equipos rojos
- Comunicación de hallazgos a los equipos azules
- Integración del red teaming en la gestión de riesgos de IA
Resumen y Pasos Siguientes
Requerimientos
- Una comprensión de la inteligencia artificial y las arquitecturas de aprendizaje profundo
- Experiencia con Python y marcos ML (por ejemplo, TensorFlow, PyTorch)
- Familiaridad con conceptos de ciberseguridad o técnicas de seguridad ofensiva
Publico Objetivo
- Investigadores en seguridad
- Equipos de seguridad ofensiva
- Profesionales de aseguramiento de IA y red teams
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Red Teaming AI Systems: Offensive Security for ML Models - Booking
Curso de Red Teaming AI Systems: Offensive Security for ML Models - Enquiry
Red Teaming AI Systems: Offensive Security for ML Models - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
Gobernanza de IA, Cumplimiento y Seguridad para Líderes Empresariales
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a líderes empresariales de nivel intermedio que desean comprender cómo gobernar y asegurar sistemas de IA de manera responsable y conforme a los marcos globales emergentes como la EU AI Act, GDPR, ISO/IEC 42001 y el Decreto Ejecutivo de EE.UU. sobre IA.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos legales, éticos y regulatorios de usar la IA en diferentes departamentos.
- Interpretar y aplicar marcos importantes de gobernanza de IA (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para la implementación de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y internos.
Inteligencia Artificial Risk Management y Seguridad en el Sector Público
7 HorasArtificial Intelligence (AI) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el sitio) está orientado a profesionales IT y de riesgos del sector público con experiencia limitada en IA que desean comprender cómo evaluar, monitorear y proteger sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al finalizar este entrenamiento, los participantes podrán:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, impredecibilidad y deriva del modelo.
- Aplicar marcos de gobernanza y auditoría específicos de la IA como NIST AI RMF e ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que atacan modelos de IA y canales de datos.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión sobre casos de uso del sector público.
- Ejercicios con marcos de gobernanza de IA y mapeo de políticas.
- Modelado de amenazas basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, contáctenos para coordinar.
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM)
21 HorasEsta formación en vivo dirigida por un instructor (online o presencial) está destinada a profesionales de TI principiantes y de nivel intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar esta capacitación, los participantes podrán:
- Comprender los conceptos clave y la importancia de la confianza, el manejo del riesgo y la seguridad en AI.
- Identificar y mitigar los riesgos asociados con los sistemas AI.
- Implementar las mejores prácticas de seguridad para AI.
- Entender la conformidad regulatoria y las consideraciones éticas para AI.
- Desarrollar estrategias efectivas para la gobernanza y gestión de AI.
Building Secure and Responsible LLM Applications
14 HorasEsta formación en vivo dirigida por un instructor en Argentina (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Descripción general de la arquitectura LLM y superficie de ataque
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Filtración de Datos y Riesgos a la Privacidad
- Exposición accidental de datos a través de respuestas
- Vulnerabilidades de PII y uso indebido de memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada por recuperación (RAG)
Filtrado y Protección de Salida LLM
- Uso de Guardrails AI para filtrado y validación de contenido
- Definición de esquemas y restricciones de salida
- Monitoreo y registro de salidas inseguras
Supervisión Humana en el Ciclo (Human-in-the-Loop) y Enfoques de Flujo de Trabajo
- Dónde y cuándo introducir supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y papel de la explicabilidad
Aplicaciones LLM Seguras Design Patterns
- Mínimos privilegios y sandboxing para llamadas a API y agentes
- Límites de velocidad, trottling y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas LLM
- Mantener trazabilidad y control de versiones del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Requisitos Previos
- Entendimiento de modelos de lenguaje grandes y interfaces basadas en prompts
- Experiencia construyendo aplicaciones LLM usando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Audiencia
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
Ciberseguridad en sistemas de IA
14 HorasEsta formación en vivo, guiada por un instructor (en línea o presencial) está dirigida a profesionales de nivel intermedio de IA y ciberseguridad que desean comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de endurecimiento del modelo para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad y integridad de los datos en modelos de aprendizaje automático.
- Navegar entre los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Introducción a AI Security y Risk Management
14 HorasEste curso en vivo, impartido por un instructor (en línea o presencial) en Argentina, está dirigido a profesionales de nivel principiante en seguridad informática, gestión de riesgos y cumplimiento que desean comprender los conceptos fundamentales de la seguridad de IA, vectores de amenaza y marcos globales como el NIST AI RMF e ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos y reversión del modelo.
- Aplicar modelos de gobernanza fundamentales como el Marco NIST AI Risk Management.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
Preservación de la Privacidad Machine Learning
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a profesionales avanzados que desean implementar y evaluar técnicas como el aprendizaje federado, el cálculo multiparte seguro, la criptografía homomórfica y la privacidad diferencial en las tuberías de aprendizaje automático del mundo real.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender y comparar técnicas clave para preservar la privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos seguros y entrenamiento de modelos.
- Utilizar técnicas de encriptación y cálculo seguro para proteger las entradas y salidas del modelo.
Securing Edge AI y la Inteligencia Embebida
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea u onsite) está diseñado para ingenieros de nivel intermedio y profesionales de seguridad que desean proteger modelos de IA implementados en la edge contra amenazas como el manipulación, fuga de datos, entradas adversarias y ataques físicos.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y evaluar riesgos de seguridad en implementaciones edge AI.
- Aplicar técnicas de resistencia a la manipulación e inferencias cifradas.
- Fortalecer modelos desplegados en edge y proteger pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con restricciones.
Securing AI Models: Threats, Attacks, and Defenses
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está orientado a profesionales de nivel intermedio de aprendizaje automático y ciberseguridad que desean comprender y mitigar amenazas emergentes contra modelos AI, utilizando marcos conceptuales y defensas prácticas como entrenamiento robusto y privacidad diferencial.
Al finalizar este entrenamiento, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.