Temario del curso

Introducción a Ollama

  • ¿Qué es Ollama y cómo funciona?
  • Beneficios de ejecutar modelos de IA localmente
  • Visión general de los LLMs soportados (Llama, DeepSeek, Mistral, etc.)

Instalación y Configuración de Ollama

  • Requisitos del sistema y consideraciones de hardware
  • Instalación de Ollama en diferentes sistemas operativos
  • Configuración de dependencias y entorno

Ejecución de Modelos de IA Localmente

  • Descarga y carga de modelos de IA en Ollama
  • Interacción con los modelos a través de la línea de comandos
  • Ingeniería básica de prompts para tareas de IA local

Optimización del Rendimiento y Uso de Recursos

  • Gestión de recursos de hardware para la ejecución eficiente de IA
  • Reducción de latencia y mejora del tiempo de respuesta del modelo
  • Evaluación del rendimiento para diferentes modelos

Casos de Uso para la Implementación Local de IA

  • Chatbots y asistentes virtuales basados en IA
  • Tareas de procesamiento de datos y automatización
  • Aplicaciones de IA enfocadas a la privacidad

Resumen y Pasos Siguientes

Requerimientos

  • Comprensión básica de IA y conceptos de aprendizaje automático
  • Familiaridad con interfaces de línea de comandos

Público Objetivo

  • Desarrolladores que ejecutan modelos de IA sin dependencias de la nube
  • Profesionales empresariales interesados en la privacidad y el despliegue coste-efectivo de IA
  • Aficionados a la IA que exploran el despliegue local de modelos
 7 Horas

Número de participantes


Precio por Participante​

Próximos cursos

Categorías Relacionadas