Perfil de habilidad

Transformer Architecture

Esta habilidad define expectativas en roles y niveles.

Machine Learning & AI LLM & Generative AI

Roles

1

donde aparece esta habilidad

Niveles

5

ruta de crecimiento estructurada

Requisitos obligatorios

0

los otros 5 opcionales

Dominio

Machine Learning & AI

skills.group

LLM & Generative AI

Última actualización

22/2/2026

Cómo usar

Selecciona tu nivel actual y compara las expectativas.

Qué se espera en cada nivel

La tabla muestra cómo crece la profundidad desde Junior hasta Principal.

Rol Obligatorio Descripción
LLM Engineer Knows Transformer basics: self-attention, multi-head attention, positional encoding, feed-forward layers. Understands encoder-decoder and decoder-only architectures and their application in LLM.
Rol Obligatorio Descripción
LLM Engineer Independently analyzes and modifies Transformer architectures: RoPE, ALiBi, GQA, SwiGLU. Understands architectural differences between GPT, LLaMA, Mistral and their impact on performance.
Rol Obligatorio Descripción
LLM Engineer Designs custom Transformer modifications: efficient attention (FlashAttention, sliding window), custom positional encoding, architectural search. Implements and evaluates novel architectural solutions.
Rol Obligatorio Descripción
LLM Engineer Defines Transformer architecture standards for the LLM team. Establishes guidelines for architecture selection, new approach evaluation, R&D directions. Coordinates architectural experiments.
Rol Obligatorio Descripción
LLM Engineer Shapes enterprise Transformer R&D strategy. Defines long-term architectural directions, evaluates emerging architectures (Mamba, RWKV), and plans transitions between architecture generations.

Comunidad

👁 Seguir ✏️ Sugerir cambio Inicia sesión para sugerir cambios
📋 Propuestas
Aún no hay propuestas para Transformer Architecture
Cargando comentarios...