Perfil de habilidad

LLM Deployment

Esta habilidad define expectativas en roles y niveles.

Machine Learning & AI LLM & Generative AI

Roles

1

donde aparece esta habilidad

Niveles

5

ruta de crecimiento estructurada

Requisitos obligatorios

0

los otros 5 opcionales

Dominio

Machine Learning & AI

skills.group

LLM & Generative AI

Última actualización

22/2/2026

Cómo usar

Selecciona tu nivel actual y compara las expectativas.

Qué se espera en cada nivel

La tabla muestra cómo crece la profundidad desde Junior hasta Principal.

Rol Obligatorio Descripción
LLM Engineer Knows LLM deployment basics: REST API endpoint, model loading, basic serving. Deploys simple inference server on vLLM or text-generation-inference under mentor guidance.
Rol Obligatorio Descripción
LLM Engineer Independently deploys LLM to production: configures vLLM with continuous batching, quantization (GPTQ/AWQ), and health checks. Implements monitoring of latency, throughput, and error rates.
Rol Obligatorio Descripción
LLM Engineer Designs production LLM serving infrastructure: multi-model serving, A/B testing, canary deployments, auto-scaling. Optimizes latency (p50/p95/p99) and throughput under high load.
Rol Obligatorio Descripción
LLM Engineer Defines LLM deployment strategy for the team. Establishes SLA for inference services, monitoring standards, rollback and incident response processes for LLM production systems.
Rol Obligatorio Descripción
LLM Engineer Shapes enterprise LLM serving platform. Defines approaches to multi-model inference at scale, cost optimization, capacity planning, and disaster recovery for critical LLM services.

Comunidad

👁 Seguir ✏️ Sugerir cambio Inicia sesión para sugerir cambios
📋 Propuestas
Aún no hay propuestas para LLM Deployment
Cargando comentarios...