Curso de CorelDraw Rozszerzony
Durante los 3 días de formación, los participantes aprenderán un poco de la historia de la teoría y las pautas convertidas en proyectos de muestra:
"Trazar" de un dibujo en papel a una imagen vectorial que se puede utilizar para imprimir, cortar, grabar, etc.
Las "curvas de Pierre Bézier" son las reglas para crear curvas básicas y curvas complejas, así como para editarlas y repararlas.
"Tipografía" es la creación de su propia fuente a partir de un dibujo a un archivo de fuente de tipo abierto (OTF).
Programa del Curso
Enrutamiento:
Preparación de gráficos ráster para la generación de rutas
Establecer parámetros para el enrutamiento
Elegir un método
Umbrales
Esquinas
Número de pistas, anclajes y colores
Curvas de Bézier:
crear una regla de reloj,
Modificado
Borrar
Checkpoints
adición
Borrar
Punto de intercambio y tipo de curva
Puntos de conexión
Desvincular puntos
Cambiar la dirección de la curva
Creación y modificación de una curva compleja
Reparación de curvas erróneas
Fuente:
Tipos de fuentes y problemas
Estándares para caracteres colocados en fuentes
Corregir o agregar caracteres faltantes en una fuente
Instalación en el sistema operativo
Reglas de interacción de signos
Uso de curvas para crear fuentes
Proyectos:
Comprensión de las directrices
Preparación de documentos desde el diseño hasta el dispositivo
Validación de documentos
Preguntas:
Capacidades y limitaciones del programa
Posibilidades y limitaciones de los formatos vectoriales
Resolver problemas del trabajo cotidiano
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de CorelDraw Rozszerzony - Booking
Curso de CorelDraw Rozszerzony - Enquiry
Próximos cursos
Cursos Relacionados
Developing AI Applications with Huawei Ascend and CANN
21 HorasHuawei Ascend es una familia de procesadores de IA diseñados para inferencia y entrenamiento de alto rendimiento.
Este curso dirigido por un instructor (en línea o presencial) está destinado a ingenieros de AI intermedios y científicos de datos que desean desarrollar y optimizar modelos de redes neuronales utilizando la plataforma Ascend de Huawei y el kit de herramientas CANN.
Al final de este entrenamiento, los participantes podrán:
- Configurar y configurar el entorno de desarrollo CANN.
- Desarrollar aplicaciones AI usando MindSpore y flujos de trabajo CloudMatrix.
- Optimizar el rendimiento en Ascend NPUs utilizando operadores personalizados y tiling.
- Implementar modelos en entornos edge o cloud.
Formato del Curso
- Conferencia interactiva y discusión.
- Uso práctico de Huawei Ascend y el kit de herramientas CANN en aplicaciones de muestra.
- Ejercicios guiados enfocados en la construcción, entrenamiento e implementación del modelo.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso basado en su infraestructura o conjuntos de datos, contáctenos para organizarlo.
Deploying AI Models with CANN and Ascend AI Processors
14 HorasCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
GPU Programming on Biren AI Accelerators
21 HorasLos aceleradores AI de Biren son GPU de alto rendimiento diseñados para cargas de trabajo de IA y HPC, con soporte para entrenamiento y inferencia a gran escala.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores de nivel intermedio a avanzado que desean programar y optimizar aplicaciones utilizando la pila propietaria GPU de Biren, con comparaciones prácticas con entornos basados en CUDA.
Al final de esta formación, los participantes podrán:
- Comprender la arquitectura y jerarquía de memoria de Biren GPU.
- Configurar el entorno de desarrollo e implementar el modelo de programación de Biren.
- Traducir y optimizar código estilo CUDA para plataformas Biren.
- Aplicar técnicas de ajuste de rendimiento y depuración.
Formato del Curso
- Conferencia interactiva y discusión.
- Uso práctico del SDK Biren en cargas de trabajo de muestra GPU.
- Ejercicios guiados enfocados en el porting y ajuste de rendimiento.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso basada en su pila de aplicaciones o necesidades de integración, por favor contáctenos para organizarlo.
Cambricon MLU Development with BANGPy and Neuware
21 HorasLas unidades MLU de Cambricon (Machine Learning) son chips especializados en IA optimizados para inferencia y entrenamiento en escenarios de borde y centros de datos.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores intermedios que desean construir y desplegar modelos de IA utilizando el marco BANGPy y el SDK Neuware en hardware MLU de Cambricon.
Al finalizar esta formación, los participantes podrán:
- Configurar y configurar los entornos de desarrollo de BANGPy y Neuware.
- Desarrollar y optimizar modelos basados en Python y C++ para las unidades MLU de Cambricon.
- Desplegar modelos a dispositivos de borde y centros de datos que ejecutan el tiempo de ejecución Neuware.
- Integrar flujos de trabajo de IA con características de aceleración específicas de MLU.
Formato del Curso
- Conferencia interactiva y discusión.
- Uso práctico de BANGPy y Neuware para desarrollo y despliegue.
- Ejercicios guiados enfocados en optimización, integración y pruebas.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada basada en el modelo de dispositivo Cambricon o caso de uso específico, contáctenos para organizarlo.
Introduction to CANN for AI Framework Developers
7 HorasCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 HorasHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HorasHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 HorasCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 HorasThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 HorasCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Migrating CUDA Applications to Chinese GPU Architectures
21 HorasLas arquitecturas GPU chinas, como Huawei Ascend, Biren y Cambricon MLUs, ofrecen alternativas a CUDA adaptadas para los mercados de IA y HPC locales.
Este entrenamiento en vivo (en línea u onsite) dirigido por un instructor está destinado a programadores avanzados de GPU y especialistas en infraestructura que desean migrar y optimizar aplicaciones existentes de CUDA para su implementación en plataformas de hardware chinas.
Al finalizar este entrenamiento, los participantes podrán:
- Evaluando la compatibilidad de las cargas de trabajo existentes de CUDA con alternativas de chips chinos.
- Migrar bases de código de CUDA a entornos Huawei CANN, Biren SDK y Cambricon BANGPy.
- Comparar el rendimiento e identificar puntos de optimización en distintas plataformas.
- Abordar desafíos prácticos en el soporte y la implementación entre arquitecturas.
Formato del Curso
- Charlas interactivas y discusiones.
- Laboratorios de traducción de código y comparaciones de rendimiento prácticos.
- Ejercicios guiados enfocados en estrategias de adaptación multi-GPU.
Opciones para la Personalización del Curso
- Para solicitar una capacitación personalizada basada en su plataforma o proyecto CUDA, contáctenos para organizarlo.
Performance Optimization on Ascend, Biren, and Cambricon
21 HorasAscend, Biren y Cambricon son plataformas de hardware de IA líderes en China, cada una ofrece herramientas únicas de aceleración y perfilado para cargas de trabajo de IA a escala de producción.
Esta formación dirigida por instructores (en línea o presencial) está orientada a ingenieros avanzados de infraestructura e IA y rendimiento que desean optimizar flujos de trabajo de inferencia y entrenamiento de modelos en múltiples plataformas de chips AI chinos.
Al final de esta formación, los participantes podrán:
- Benchmarkear modelos en las plataformas Ascend, Biren y Cambricon.
- Identificar cuellos de botella del sistema e ineficiencias de memoria/cómputo.
- Aplicar optimizaciones a nivel de gráficos, núcleos y operadores.
- Ajustar pipelines de despliegue para mejorar el rendimiento y la latencia.
Formato del Curso
- Conferencias interactivas y discusiones.
- Uso práctico de herramientas de perfilado y optimización en cada plataforma.
- Ejercicios guiados enfocados en escenarios de ajuste prácticos.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso basada en su entorno de rendimiento o tipo de modelo, por favor contáctenos para organizarlo.