Выберите текущую позицию

Укажите роль и уровень — система покажет путь развития, навыки и gap-анализ.

Путь развития

Junior

0-2 года

Текущий

Ответственность: Написание dbt-моделей. SQL-трансформации. Документирование моделей. Data quality tests. Работа с data warehouse.

Ключевые навыки:

Apache Airflow Нужно
BI-дашборды Нужно
ClickHouse Нужно
Dagster / Prefect Нужно
Data Catalog Нужно
Data Contracts Нужно
Data Lineage Нужно
Data Quality Нужно
Data Warehouse Design Нужно
dbt Нужно
Pandas / Polars Нужно
PostgreSQL Нужно
SQL-based ETL Нужно
Архитектура Data Lake Нужно
Индексирование БД Нужно
Миграции БД Нужно
Оптимизация запросов Нужно
Проектирование схем данных Нужно

Middle

2-5 лет

Следующий

Ответственность: Проектирование аналитических моделей (Star Schema, OBT). Настройка dbt best practices. Metrics layer. Orchestration.

Ключевые навыки:

Apache Airflow Нужно
BI-дашборды Нужно
ClickHouse Нужно
Dagster / Prefect Нужно
Data Catalog Нужно
Data Contracts Нужно
Data Lineage Нужно
Data Quality Нужно
Data Warehouse Design Нужно
dbt Нужно
Pandas / Polars Нужно
PostgreSQL Нужно
SQL-based ETL Нужно
Архитектура Data Lake Нужно
Индексирование БД Нужно
Миграции БД Нужно
Оптимизация запросов Нужно
Проектирование схем данных Нужно
Переход: ~2-3 года
  • Самостоятельно реализовал 3+ проекта
  • Провёл успешные код-ревью
  • Участвовал в разрешении production инцидентов

Senior

5-8 лет

Ответственность: Архитектура analytics stack. Semantic layer. Data contracts. Performance optimization. Self-service analytics.

Ключевые навыки:

Apache Airflow Нужно
Apache Kafka Нужно
AWS Нужно
BI-дашборды Нужно
ClickHouse Нужно
Code Review Нужно
Dagster / Prefect Нужно
Data Catalog Нужно
Data Contracts Нужно
Data Lineage Нужно
Data Quality Нужно
Data Warehouse Design Нужно
dbt Нужно
Docker Нужно
Elasticsearch / OpenSearch Нужно
Git Advanced Нужно
GitHub Actions / GitLab CI Нужно
GitHub Copilot Нужно
Pandas / Polars Нужно
PostgreSQL Нужно
Python Web Frameworks Нужно
Redis Нужно
REST API Design Нужно
SQL-based ETL Нужно
Unit-тестирование Нужно
Алгоритмы и сложность Нужно
Архитектура Data Lake Нужно
Документация как код Нужно
Документирование API Нужно
Индексирование БД Нужно
Интеграционное тестирование Нужно
Качество кода и рефакторинг Нужно
Миграции БД Нужно
Оптимизация запросов Нужно
Проектирование схем данных Нужно
Структурированное логирование Нужно
Структуры данных Нужно
Переход: ~2-3 года
  • Самостоятельно реализовал 3+ проекта
  • Провёл успешные код-ревью
  • Участвовал в разрешении production инцидентов

Lead / Staff

7-12 лет

Ответственность: Analytics engineering strategy. Data modeling standards. Coordination с data и product teams. Data governance.

Ключевые навыки:

Apache Airflow Нужно
Apache Kafka Нужно
AWS Нужно
BI-дашборды Нужно
ClickHouse Нужно
Code Review Нужно
Dagster / Prefect Нужно
Data Catalog Нужно
Data Contracts Нужно
Data Lineage Нужно
Data Quality Нужно
Data Warehouse Design Нужно
dbt Нужно
Docker Нужно
Elasticsearch / OpenSearch Нужно
Git Advanced Нужно
GitHub Actions / GitLab CI Нужно
GitHub Copilot Нужно
Pandas / Polars Нужно
PostgreSQL Нужно
Python Web Frameworks Нужно
Redis Нужно
REST API Design Нужно
SQL-based ETL Нужно
Unit-тестирование Нужно
Алгоритмы и сложность Нужно
Архитектура Data Lake Нужно
Документация как код Нужно
Документирование API Нужно
Индексирование БД Нужно
Интеграционное тестирование Нужно
Качество кода и рефакторинг Нужно
Миграции БД Нужно
Оптимизация запросов Нужно
Проектирование схем данных Нужно
Структурированное логирование Нужно
Структуры данных Нужно
Переход: ~2-3 года
  • Самостоятельно реализовал 3+ проекта
  • Провёл успешные код-ревью
  • Участвовал в разрешении production инцидентов

Principal

10+ лет

Ответственность: Enterprise analytics architecture. Data mesh analytics. Semantic layer strategy. Industry best practices.

Ключевые навыки:

Apache Airflow Нужно
Apache Kafka Нужно
AWS Нужно
BI-дашборды Нужно
ClickHouse Нужно
Code Review Нужно
Dagster / Prefect Нужно
Data Catalog Нужно
Data Contracts Нужно
Data Lineage Нужно
Data Quality Нужно
Data Warehouse Design Нужно
dbt Нужно
Docker Нужно
Elasticsearch / OpenSearch Нужно
Git Advanced Нужно
GitHub Actions / GitLab CI Нужно
GitHub Copilot Нужно
Pandas / Polars Нужно
PostgreSQL Нужно
Python Web Frameworks Нужно
Redis Нужно
REST API Design Нужно
SQL-based ETL Нужно
Unit-тестирование Нужно
Алгоритмы и сложность Нужно
Архитектура Data Lake Нужно
Документация как код Нужно
Документирование API Нужно
Индексирование БД Нужно
Интеграционное тестирование Нужно
Качество кода и рефакторинг Нужно
Миграции БД Нужно
Оптимизация запросов Нужно
Проектирование схем данных Нужно
Структурированное логирование Нужно
Структуры данных Нужно
Переход: ~2-3 года
  • Самостоятельно реализовал 3+ проекта
  • Провёл успешные код-ревью
  • Участвовал в разрешении production инцидентов

Gap-анализ: навыки для развития

Для перехода на следующий уровень необходимо развить:

Apache Airflow

Самостоятельно строит DAG Airflow для ELT-пайплайнов с dbt-операторами и проверками качества данных. Настраивает политики повторов, SLA и алертинг для задач трансформации. Оптимизирует параллелизм задач и пулы ресурсов.

BI-дашборды

Проектирует аналитические дашборды с корректной бизнес-логикой: расчёт метрик на уровне BI vs dbt, параметризованные отчёты, cross-filtering. Оптимизирует производительность дашбордов через правильное моделирование данных в mart-слое.

ClickHouse

Пишет сложные аналитические запросы с использованием ClickHouse-специфичных функций: arrayJoin, windowFunnel, retention. Оптимизирует запросы через правильный выбор ORDER BY ключа и использование PREWHERE для фильтрации.

Dagster / Prefect

Самостоятельно реализует data pipelines с Dagster / Prefect. Оптимизирует производительность. Обеспечивает data quality.

Data Catalog

Самостоятельно поддерживает записи каталога данных для слоя трансформации. Настраивает автоматическое извлечение метаданных из dbt docs и графов lineage. Реализует таксономии тегов и классификацию данных для управляемого self-service доступа.

Data Contracts

Самостоятельно определяет контракты данных для выходов слоя трансформации через dbt contracts и schema tests. Реализует автоматическую валидацию контрактов в CI/CD-пайплайнах. Согласует изменения контрактов с upstream-производителями данных.

Data Lineage

Самостоятельно внедряет отслеживание lineage данных по слою трансформации dbt. Настраивает lineage на уровне колонок через метаданные dbt и внешние инструменты (OpenLineage, DataHub). Автоматизирует анализ влияния изменений схем.

Data Quality

Настраивает комплексное dbt-тестирование: custom generic tests, dbt expectations package для статистических проверок, freshness tests для source-ов. Реализует data quality dashboards для мониторинга метрик качества.

Data Warehouse Design

Проектирует dimensional-модели и семантические слои для множества потребителей данных. Создаёт переиспользуемые dbt-пакеты с правильными стратегиями материализации, инкрементальными моделями и документированными витринами. Реализует slowly changing dimensions и управляет эволюцией схем без нарушения аналитических пайплайнов.

dbt

Самостоятельно строит dbt-пайплайны трансформации с инкрементальными моделями, снэпшотами и кастомными макросами. Реализует тесты качества данных с пакетами dbt-expectations и dbt-utils. Настраивает материализации и оптимизирует производительность моделей.

Pandas / Polars

Применяет pandas/polars для сложной предобработки данных: merge разнородных источников, pivot-таблицы, обработка временных рядов. Использует polars для ускорения локальной обработки больших файлов перед загрузкой в warehouse.

PostgreSQL

Создаёт сложные аналитические запросы с CTE, window-функциями и подзапросами в PostgreSQL. Использует EXPLAIN ANALYZE для профилирования запросов к большим таблицам. Работает с PostgreSQL-специфичными типами: JSONB, ARRAY, INTERVAL.

SQL-based ETL

Разрабатывает сложные SQL-трансформации в dbt: window-функции для расчёта метрик, CTE-цепочки для многошаговой бизнес-логики, Jinja-макросы для DRY-подхода. Реализует incremental-модели с merge-стратегией для оптимизации.

Архитектура Data Lake

Самостоятельно строит аналитические data-продукты поверх слоёв data lake с использованием dbt и Spark SQL. Оптимизирует производительность запросов через интеллектуальное партиционирование и Z-ordering. Обеспечивает качество данных проверками Great Expectations на границах зон.

Индексирование БД

Анализирует планы выполнения запросов для определения необходимых индексов в источниках данных. Создаёт составные индексы для типичных аналитических паттернов: фильтрация по дате + dimension. Понимает trade-off между скоростью чтения и записи.

Миграции БД

Самостоятельно проектирует схемы и оптимизирует запросы с Миграции БД. Понимает индексирование и планы выполнения запросов. Использует ORM эффективно.

Оптимизация запросов

Оптимизирует dbt-модели и SQL-запросы: переписывает подзапросы в CTE, устраняет redundant JOIN-ы, использует incremental-стратегии для тяжёлых моделей. Анализирует query profile в Snowflake/BigQuery для выявления узких мест.

Проектирование схем данных

Проектирует dbt-модели по слоям: staging для очистки сырых данных, intermediate для бизнес-логики, marts для потребителей. Применяет dimensional modeling (Kimball) для аналитических витрин. Реализует SCD Type 2 для исторических измерений.

Карьерные переходы

Возможные карьерные траектории для роли Analytics Engineer

🔙 Откуда приходят 1

Роли, из которых часто переходят сюда

Data Analyst Откуда приходят

╨а╨╛╤Б╤В ╨▓ Analytics Engineering ╤З╨╡╤А╨╡╨╖ dbt ╨╕ data modeling

Связь: 100%