Curso de Building Secure and Responsible LLM Applications
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está orientada a desarrolladores AI intermedios y avanzados, arquitectos y gerentes de productos que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo la inyección de prompts, la fuga de datos y la salida no filtrada, mientras incorporan controles de seguridad como la validación de entrada, el control humano en bucle y las barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Utilizar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión en bucle humano en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Programa del Curso
Resumen de la Arquitectura y Superficie de Ataque de LLM
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en las pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Fugas de Datos y Riesgos de Privacidad
- Exposición accidental de datos a través de respuestas
- Fugas de PII y mal uso de la memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada con recuperación (RAG)
Filtrado y Protección de Salida de LLM
- Uso de Guardrails AI para el filtrado y validación del contenido
- Definición de esquemas de salida y restricciones
- Monitoreo y registro de salidas inseguras
Enfoques con Supervisión Humana en Bucle y Flujos de Trabajo
- Dónde y cuándo introducir la supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y rol de la explicabilidad
Aplicación Segura LLM Design Patterns
- Mínimos privilegios y aislamiento para llamadas API y agentes
- Límites de velocidad, limitación y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas de LLM
- Mantener trazabilidad y control de versión del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
Requerimientos
- Una comprensión de los modelos de lenguaje grandes y las interfaces basadas en prompts
- Experiencia en la construcción de aplicaciones LLM utilizando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Público objetivo
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Building Secure and Responsible LLM Applications - Booking
Curso de Building Secure and Responsible LLM Applications - Enquiry
Building Secure and Responsible LLM Applications - Consultas
Consultas
Próximos cursos
Cursos Relacionados
AI Automation with n8n and LangChain
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o en el sitio) está dirigida a desarrolladores y profesionales de TI de todos los niveles de habilidad que deseen automatizar tareas y procesos utilizando IA sin escribir código extenso.
Al final de esta capacitación, los participantes serán capaces de:
- Diseñe e implemente flujos de trabajo complejos utilizando la interfaz de programación visual de n8n.
- Integre las capacidades de IA en los flujos de trabajo mediante LangChain.
- Cree chatbots y asistentes virtuales personalizados para varios casos de uso.
- Realice análisis y procesamiento avanzados de datos con agentes de IA.
Automating Workflows with LangChain and APIs
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o presencial) está dirigida a analistas de negocios e ingenieros de automatización de nivel principiante que deseen comprender cómo usar LangChain y las API para automatizar tareas y flujos de trabajo repetitivos.
Al final de esta formación, los participantes serán capaces de:
- Comprenda los conceptos básicos de la integración de API con LangChain.
- Automatice los flujos de trabajo repetitivos con LangChain y Python.
- Utilice LangChain para conectar varias API para procesos empresariales eficientes.
- Cree y automatice flujos de trabajo personalizados utilizando las API y las capacidades de automatización de LangChain.
Building Conversational Agents with LangChain
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o presencial) está dirigida a profesionales de nivel intermedio que desean profundizar su comprensión de los agentes conversacionales y aplicar LangChain a casos de uso del mundo real.
Al final de esta formación, los participantes serán capaces de:
- Comprender los fundamentos de LangChain y su aplicación en la creación de agentes conversacionales.
- Desarrolle e implemente agentes conversacionales con LangChain.
- Integre agentes conversacionales con API y servicios externos.
- Aplicar Natural Language Processing (NLP) técnicas para mejorar el rendimiento de los agentes conversacionales.
Building Private AI Workflows with Ollama
14 HorasEste entrenamiento dirigido por un instructor, en vivo en Argentina (en línea o en sitio), está dirigido a profesionales de nivel avanzado que deseen implementar flujos de trabajo seguros y eficientes impulsados por inteligencia artificial utilizando Ollama.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Desplegar y configurar Ollama para el procesamiento de IA privada.
- Integrar modelos de IA en flujos de trabajo empresariales seguros.
- Optimizar el rendimiento de la IA manteniendo la privacidad de los datos.
- Automatizar procesos empresariales con capacidades de IA en las instalaciones.
- Garantizar el cumplimiento de las políticas de seguridad y gobernanza empresarial.
Deploying and Optimizing LLMs with Ollama
14 HorasEste entrenamiento dirigido por un instructor, en vivo en Argentina (en línea o presencial), está dirigido a profesionales de nivel intermedio que deseen implementar, optimizar e integrar LLMs utilizando Ollama.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar e implementar LLMs utilizando Ollama.
- Optimizar modelos de IA para mejorar el rendimiento y la eficiencia.
- Aprovechar la aceleración de GPU para mejorar la velocidad de inferencia.
- Integrar Ollama en flujos de trabajo y aplicaciones.
- Monitorear y mantener el rendimiento de los modelos de IA a lo largo del tiempo.
Ethical Considerations in AI Development with LangChain
21 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o presencial) está dirigida a investigadores de IA de nivel avanzado y responsables políticos que deseen explorar las implicaciones éticas del desarrollo de la IA y aprender a aplicar las pautas éticas al crear soluciones de IA con LangChain.
Al final de esta formación, los participantes serán capaces de:
- Identifique los problemas éticos clave en el desarrollo de la IA con LangChain.
- Comprender el impacto de la IA en la sociedad y en los procesos de toma de decisiones.
- Desarrollar estrategias para crear sistemas de IA justos y transparentes.
- Implemente directrices éticas de IA en proyectos basados en LangChain.
Enhancing User Experience with LangChain in Web Apps
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o en el sitio) está dirigida a desarrolladores web de nivel intermedio y diseñadores de UX que desean aprovechar LangChain para crear aplicaciones web intuitivas y fáciles de usar.
Al final de esta formación, los participantes serán capaces de:
- Comprender los conceptos fundamentales de LangChain y su papel en la mejora de la experiencia del usuario web.
- Implemente LangChain en aplicaciones web para crear interfaces dinámicas y receptivas.
- Integre las API en las aplicaciones web para mejorar la interactividad y la participación de los usuarios.
- Optimice la experiencia del usuario utilizando las funciones de personalización avanzadas de LangChain.
- Analice los datos de comportamiento de los usuarios para ajustar el rendimiento y la experiencia de las aplicaciones web.
Fine-Tuning and Customizing AI Models on Ollama
14 HorasEste entrenamiento dirigido por un instructor, en vivo en Argentina (en línea o en sitio), está dirigido a profesionales de nivel avanzado que desean ajustar y personalizar modelos de IA en Ollama para mejorar el rendimiento y aplicaciones específicas del dominio.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar un entorno eficiente para el ajuste fino de modelos de IA en Ollama.
- Preparar conjuntos de datos para el ajuste fino supervisado y el aprendizaje por refuerzo.
- Optimizar modelos de IA para mejorar el rendimiento, la precisión y la eficiencia.
- Implementar modelos personalizados en entornos de producción.
- Evaluar las mejoras del modelo y garantizar su robustez.
Introduction to AI Security and Risk Management
14 HorasEsta formación en vivo dirigida por un instructor en Argentina (en línea o presencial) está destinada a profesionales principiantes de seguridad IT, riesgo y cumplimiento que desean comprender conceptos fundamentales de seguridad AI, vectores de amenaza y marcos globales como NIST AI RMF e ISO/IEC 42001.
Al finalizar esta formación, los participantes podrán:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas AI.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos y inversión de modelo.
- Aplicar modelos de gobernanza fundamentales como el Marco NIST AI Risk Management.
- Alinear el uso de AI con estándares emergentes, directrices de cumplimiento y principios éticos.
LangChain: Building AI-Powered Applications
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender los fundamentos de LangChain y sus componentes.
- Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
- Cree aplicaciones modulares de IA con LangChain.
- Solucione problemas comunes en las aplicaciones de LangChain.
Integrating LangChain with Cloud Services
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o presencial) está dirigida a ingenieros de datos de nivel avanzado y DevOps profesionales que deseen aprovechar las capacidades de LangChain integrándola con varios servicios en la nube.
Al final de esta formación, los participantes serán capaces de:
- Integre LangChain con las principales plataformas en la nube, como AWS, Azure y Google Cloud.
- Utilice API y servicios basados en la nube para mejorar las aplicaciones con tecnología LangChain.
- Escale e implemente agentes conversacionales en la nube para la interacción en tiempo real.
- Implemente las mejores prácticas de supervisión y seguridad en entornos de nube.
LangChain for Data Analysis and Visualization
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o presencial) está dirigida a profesionales de datos de nivel intermedio que desean utilizar LangChain para mejorar sus capacidades de análisis y visualización de datos.
Al final de esta formación, los participantes serán capaces de:
- Automatice la recuperación y limpieza de datos mediante LangChain.
- Realice análisis de datos avanzados utilizando Python y LangChain.
- Cree visualizaciones con Matplotlib y otras bibliotecas Python integradas con LangChain.
- Aproveche LangChain para generar información sobre el lenguaje natural a partir del análisis de datos.
LangChain Fundamentals
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender los principios fundamentales de LangChain.
- Instale y configure el entorno de LangChain.
- Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
- Desarrolle aplicaciones sencillas con LangChain.
Getting Started with Ollama: Running Local AI Models
7 HorasEste entrenamiento dirigido por un instructor, en vivo en Argentina (en línea o en sitio) está dirigido a profesionales de nivel principiante que deseen instalar, configurar y utilizar Ollama para ejecutar modelos de IA en sus máquinas locales.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los fundamentos de Ollama y sus capacidades.
- Configurar Ollama para ejecutar modelos de IA locales.
- Implementar e interactuar con LLMs utilizando Ollama.
- Optimizar el rendimiento y el uso de recursos para cargas de trabajo de IA.
- Explorar casos de uso para la implementación de IA local en diversas industrias.
Securing AI Models: Threats, Attacks, and Defenses
14 HorasEsta formación en vivo dirigida por un instructor en Argentina (en línea o presencial) está destinada a profesionales de nivel intermedio en aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar esta formación, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Introducción al Modelado de Amenazas para IA
- ¿Qué hace que los sistemas de AI sean vulnerables?
- Superficie de ataque de AI vs sistemas tradicionales
- Vectores de ataque clave: capas de datos, modelo, salida e interfaz
Ataques Adversarios en Modelos de IA
- Comprender ejemplos adversarios y técnicas de perturbación
- Ataques de caja blanca vs caja negra
- Métodos FGSM, PGD y DeepFool
- Visualización y creación de muestras adversarias
Inversión del Modelo y Fugas de Privacidad
- Inferir datos de entrenamiento a partir de la salida del modelo
- Ataques de inferencia de membresía
- Riesgos de privacidad en modelos de clasificación y generativos
Envenenamiento de Datos e Inyecciones de Puertas Traseras
- Cómo los datos envenenados influyen en el comportamiento del modelo
- Puertas traseras basadas en desencadenantes y ataques Troyano
- Estrategias de detección y saneamiento
Robustez y Técnicas Defensivas
- Entrenamiento adversario y aumento de datos
- Mascaramiento del gradiente y preprocesamiento de entrada
- Técnicas de suavizado y regularización del modelo
Defensas de AI que Preservan la Privacidad
- Introducción a la privacidad diferencial
- Inyección de ruido y presupuestos de privacidad
- Aprendizaje federado y agregación segura
AI Security en Práctica
- Evaluación y despliegue de modelos conscientes de amenazas
- Uso del ART (Adversarial Robustness Toolbox) en configuraciones aplicadas
- Casos de estudio de la industria: fugas reales y mitigaciones
Resumen y Próximos Pasos
La seguridad de modelos de AI es la disciplina de defender sistemas de aprendizaje automático contra amenazas específicas del modelo, como entradas adversarias, envenenamiento de datos, ataques de inversión y fugas de privacidad.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel intermedio en aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra modelos de AI, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar esta formación, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para acordarlo.
Requisitos previos
- Comprensión de los flujos de trabajo del aprendizaje automático y el entrenamiento del modelo
- Experiencia con Python y marcos comunes de ML como PyTorch o TensorFlow
- Familiaridad con conceptos básicos de seguridad o modelado de amenazas es útil
Audiencia
- ingenieros de aprendizaje automático
- analistas de ciberseguridad
- investigadores de AI y equipos de validación del modelo