Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM)
AI TRiSM es un campo emergente que aborda la necesidad de confiabilidad, gestión del riesgo y seguridad en los sistemas de IA.
Este entrenamiento guiado por instructores (en línea o presencial) está dirigido a profesionales IT de nivel principiante a intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los conceptos clave y la importancia de la gestión de confianza, riesgo y seguridad en IA.
- Identificar y mitigar los riesgos asociados con los sistemas de IA.
- Implementar las mejores prácticas de seguridad para IA.
- Entender la conformidad regulatoria y las consideraciones éticas para IA.
- Desarrollar estrategias efectivas de gobernanza y gestión de AI.
Formato del Curso
- Charla interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para programarlo.
Temario del curso
Comprensión de AI TRiSM
- Introducción a AI TRiSM
- La importancia de la confianza y la seguridad en el AI
- Visión general de los riesgos y desafíos del AI
Fundamentos de la AI Confiable
- Principios de confiabilidad en AI
- Garantizar equidad, fiabilidad y robustez en sistemas de AI
- Ética y gobernanza del AI
Gestión de Riesgos Risk Management en AI
- Identificación y evaluación de riesgos en AI
- Estrategias de mitigación para riesgos relacionados con AI
- Marco de gestión de riesgos en AI
Aspectos de Seguridad en AI
- AI y ciberseguridad
- Protección de sistemas de AI contra ataques
- Ciclo de vida seguro para el desarrollo de AI
Cumplimiento Normativo y Data Protection
- Marco regulatorio para AI
- Cumplimiento con leyes de privacidad de datos en AI
- Encriptación y almacenamiento seguro de datos en sistemas de AI
Gobernanza del Modelo de AI Governance
- Estructuras de gobernanza para AI Governance
- Monitoreo y auditoría de modelos de AI
- Transparencia y explicabilidad en AI
Implementación de AI TRiSM
- Mejores prácticas para implementar AI TRiSM
- Estudios de caso y ejemplos del mundo real
- Herramientas y tecnologías para AI TRiSM
Futuro de AI TRiSM
- Tendencias emergentes en AI TRiSM
- Preparación para el futuro de AI en los negocios
- Aprendizaje continuo y adaptación en AI TRiSM
Resumen y Próximos Pasos
Requerimientos
- Comprender los conceptos básicos de IA y sus aplicaciones
- Experiencia en la gestión de datos y principios de seguridad informática es beneficiosa
Audiencia
- Profesionales y gerentes de TI
- Científicos de datos y desarrolladores de IA
- Líderes y formuladores de políticas Business
Los cursos públicos requieren más de 5 participantes.
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM) - Reserva
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM) - Consulta
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM) - Solicitud de consultoría
Solicitud de consultoría
Próximos cursos
Cursos Relacionados
ISACA Avanzado en Gestión de Seguridad de IA (AAISM)
21 HorasAAISM es un marco avanzado para evaluar, gobernar y gestionar los riesgos de seguridad en sistemas de inteligencia artificial.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar controles de seguridad y prácticas de gobierno efectivas para entornos empresariales de IA.
Al finalizar este programa, los participantes estarán preparados para:
- Evaluar riesgos de seguridad en IA utilizando metodologías reconocidas en la industria.
- Implementar modelos de gobernanza para despliegues responsables de IA.
- Alinear políticas de seguridad de IA con los objetivos organizacionales y las expectativas regulatorias.
- Mejorar la resiliencia y la responsabilidad en operaciones impulsadas por IA.
Formato del Curso
- Conferencias facilitadas respaldadas por análisis de expertos.
- Talleres prácticos y actividades basadas en evaluaciones.
- Ejercicios aplicados utilizando escenarios reales de gobernanza de IA.
Opciones de Personalización del Curso
- Para un entrenamiento personalizado alineado con su estrategia de IA organizacional, póngase en contacto con nosotros para personalizar el curso.
Gobernanza, Cumplimiento y Seguridad de IA para Líderes Empresariales
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a líderes empresariales intermedios que desean comprender cómo gobernar y asegurar los sistemas de IA de manera responsable y en conformidad con marcos emergentes como el Reglamento de IA de la UE, el RGPD, ISO/IEC 42001 y la Orden Ejecutiva sobre IA de Estados Unidos.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos legales, éticos y regulatorios del uso de IA en diferentes departamentos.
- Interpretar y aplicar marcos principales de gobernanza de IA (Reglamento de IA de la UE, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para el despliegue de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y propios.
Gestión de Riesgos y Seguridad de la IA en el Sector Público
7 HorasLa Inteligencia Artificial (IA) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el lugar) está orientado a profesionales del sector público en TI y gestión de riesgos con experiencia limitada previa en IA que desean comprender cómo evaluar, monitorear y asegurar sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al final de este entrenamiento, los participantes serán capaces de:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, imprevisibilidad y desviación del modelo.
- Aplicar marcos específicos de gobernanza y auditoría de IA como el NIST AI RMF y ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que se dirigen a modelos y pipelines de datos de IA.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión de casos de uso en el sector público.
- Ejercicios de marcos de gobernanza de IA y mapeo de políticas.
- Modelado basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para organizarlo.
Building Secure and Responsible LLM Applications
14 HorasEste curso de formación dirigido por un instructor en Argentina (en línea o presencial) está destinado a desarrolladores, arquitectos y gerentes de productos de IA de nivel intermedio a avanzado que deseen identificar y mitigar riesgos asociados con aplicaciones impulsadas por modelos de lenguaje grandes (LLM), incluyendo inyección de prompts, fuga de datos y salida sin filtrar, mientras incorporan controles de seguridad como la validación de entrada, supervisión humana en el bucle y barreras de protección de la salida.
Al finalizar este curso, los participantes podrán:
- Comprender las vulnerabilidades principales de los sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Utilizar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como el uso de entornos aislados (sandboxing), equipos rojos (red teaming) y revisiones humanas en el bucle en pipelines de producción de grado empresarial.
Ciberseguridad en sistemas de IA
14 HorasEsta formación en vivo, guiada por un instructor (en línea o presencial) está dirigida a profesionales de nivel intermedio de IA y ciberseguridad que desean comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de endurecimiento del modelo para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad y integridad de los datos en modelos de aprendizaje automático.
- Navegar entre los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Introducción a la Seguridad y Gestión de Riesgos en IA
14 HorasEste entrenamiento dirigido por un instructor, en vivo (en línea o presencial) está destinado a profesionales de la seguridad de TI, gestión de riesgos y cumplimiento con nivel principiante que deseen comprender los conceptos fundamentales de seguridad en IA, vectores de amenaza y marcos globales como el NIST AI RMF y ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos e inversión de modelos.
- Aplicar modelos de gobernanza fundamentales como el Marco de Gestión de Riesgos de IA del NIST.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
OWASP GenAI Security
14 HorasBasado en las últimas pautas del proyecto OWASP GenAI Security, los participantes aprenderán a identificar, evaluar y mitigar amenazas específicas de IA mediante ejercicios prácticos y escenarios del mundo real.
Aprendizaje Automático con Preservación de Privacidad
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar y evaluar técnicas como el aprendizaje federado, el cálculo seguro multipartidario, la cifrado homomórfico y la privacidad diferencial en pipelines de aprendizaje automático del mundo real.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender y comparar las técnicas clave de preservación de privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos y entrenar modelos de forma segura.
- Utilizar técnicas de cifrado y cálculo seguro para proteger las entradas y salidas del modelo.
Red Teaming de Sistemas de IA: Seguridad Ofensiva para Modelos de ML
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de seguridad avanzados y especialistas en ML que desean simular ataques a sistemas de IA, descubrir vulnerabilidades y mejorar la robustez de los modelos de IA implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de APIs y pipelines de IA.
- Diseñar estrategias de red teaming para entornos de implementación de IA.
Protegiendo la Inteligencia en el Borde y la Inteligencia Embebida
14 HorasEsta formación dirigida por un instructor (en línea o presencial) está destinada a ingenieros y profesionales de la seguridad de nivel intermedio que desean proteger los modelos de IA implementados en el borde contra amenazas como manipulaciones, filtraciones de datos, entradas adversarias y ataques físicos.
Al final de esta formación, los participantes serán capaces de:
- Identificar y evaluar los riesgos de seguridad en las implementaciones de IA en el borde.
- Aplicar técnicas de resistencia a la manipulación e inferencia cifrada.
- Fortalecer los modelos implementados en el borde y asegurar las pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con recursos limitados.
Protección de Modelos de IA: Amenazas, Ataques y Defensas
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a profesionales intermedios de aprendizaje automático y ciberseguridad que deseen comprender y mitigar amenazas emergentes contra los modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y clasificar amenazas específicas de IA como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como la Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas, incluyendo entrenamiento adversario, inyección de ruido y técnicas que preservan la privacidad.
- Diseñar estrategias de evaluación del modelo conscientes de amenazas en entornos de producción.
Seguridad y Privacidad en Aplicaciones de TinyML
21 HorasTinyML es un enfoque para implementar modelos de aprendizaje automático en dispositivos de bajo consumo y recursos limitados que operan en el borde de la red.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen asegurar las pipelines de TinyML e implementar técnicas de protección de la privacidad en aplicaciones de IA en el borde.
Al finalizar este curso, los participantes podrán:
- Identificar riesgos de seguridad propios de la inferencia de TinyML en dispositivo.
- Implementar mecanismos de protección de la privacidad para implementaciones de IA en el borde.
- Fortalecer los modelos y sistemas embebidos de TinyML contra amenazas adversarias.
- Aplicar mejores prácticas para un manejo seguro de datos en entornos con recursos limitados.
Formato del Curso
- Conferencias atractivas respaldadas por discusiones dirigidas por expertos.
- Ejercicios prácticos que enfatizan escenarios de amenazas del mundo real.
- Implementación práctica utilizando herramientas de seguridad embebida y TinyML.
Opciones de Personalización del Curso
- Las organizaciones pueden solicitar una versión personalizada de este entrenamiento para alinearlo con sus necesidades específicas de seguridad y cumplimiento.
IA Segura y Confiable: Gobernanza, Identidad y Equipo Rojo
21 HorasEste curso cubre la gobernanza, gestión de identidad y pruebas adversarias para sistemas de IA agente, con enfoque en patrones de implementación seguros para empresas y técnicas prácticas de equipo rojo.
Esta capacitación dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel avanzado que deseen diseñar, asegurar y evaluar sistemas de IA basados en agentes en entornos de producción.
Al finalizar esta capacitación, los participantes podrán:
- Definir modelos y políticas de gobernanza para implementaciones seguras de IA agente.
- Diseñar flujos de identidad y autenticación no humanos para agentes con acceso de privilegios mínimos.
- Implementar controles de acceso, rastros de auditoría y observabilidad adaptados a agentes autónomos.
- Planificar y ejecutar ejercicios de equipo rojo para descubrir malos usos, caminos de escalada y riesgos de exfiltración de datos.
- Mitigar amenazas comunes a sistemas agente mediante políticas, controles de ingeniería y monitoreo.
Formato del Curso
- Conferencias interactivas y talleres de modelado de amenazas.
- Laboratorios prácticos: aprovisionamiento de identidad, aplicación de políticas y simulación de adversarios.
- Ejercicios de equipo rojo/equipo azul y evaluación final del curso.
Opciones de Personalización del Curso
- Para solicitar una capacitación personalizada para este curso, comuníquese con nosotros para realizar los arreglos necesarios.