Perfil de habilidad

vLLM Inference

Esta habilidad define expectativas en roles y niveles.

Machine Learning & AI LLM & Generative AI

Roles

1

donde aparece esta habilidad

Niveles

5

ruta de crecimiento estructurada

Requisitos obligatorios

0

los otros 5 opcionales

Dominio

Machine Learning & AI

skills.group

LLM & Generative AI

Última actualización

22/2/2026

Cómo usar

Selecciona tu nivel actual y compara las expectativas.

Qué se espera en cada nivel

La tabla muestra cómo crece la profundidad desde Junior hasta Principal.

Rol Obligatorio Descripción
LLM Engineer Knows vLLM basics: what is PagedAttention, continuous batching, inference serving. Launches vLLM server for pre-trained model inference with basic configuration under mentor guidance.
Rol Obligatorio Descripción
LLM Engineer Independently configures vLLM for production: tensor parallelism, quantization (AWQ/GPTQ), GPU memory management. Optimizes throughput by tuning batch size and scheduling parameters.
Rol Obligatorio Descripción
LLM Engineer Designs production vLLM infrastructure: multi-model serving, speculative decoding, custom sampling strategies. Optimizes latency and throughput through advanced configuration and hardware-specific tuning.
Rol Obligatorio Descripción
LLM Engineer Defines vLLM deployment standards for the LLM team. Establishes guidelines for configuration, monitoring, capacity planning. Coordinates upgrades and migration between vLLM versions.
Rol Obligatorio Descripción
LLM Engineer Shapes enterprise vLLM inference strategy. Defines approaches to multi-cluster inference, hardware planning (A100/H100/H200), and cost optimization. Ensures SLA for critical inference workloads.

Comunidad

👁 Seguir ✏️ Sugerir cambio Inicia sesión para sugerir cambios
📋 Propuestas
Aún no hay propuestas para vLLM Inference
Cargando comentarios...