Выберите текущую позицию
Укажите роль и уровень — система покажет путь развития, навыки и gap-анализ.
Путь развития
Junior
0-2 года
Ответственность: Написание dbt-моделей. SQL-трансформации. Документирование моделей. Data quality tests. Работа с data warehouse.
Ключевые навыки:
Middle
2-5 лет
Ответственность: Проектирование аналитических моделей (Star Schema, OBT). Настройка dbt best practices. Metrics layer. Orchestration.
Ключевые навыки:
- Самостоятельно реализовал 3+ проекта
- Провёл успешные код-ревью
- Участвовал в разрешении production инцидентов
Senior
5-8 лет
Ответственность: Архитектура analytics stack. Semantic layer. Data contracts. Performance optimization. Self-service analytics.
Ключевые навыки:
- Самостоятельно реализовал 3+ проекта
- Провёл успешные код-ревью
- Участвовал в разрешении production инцидентов
Lead / Staff
7-12 лет
Ответственность: Analytics engineering strategy. Data modeling standards. Coordination с data и product teams. Data governance.
Ключевые навыки:
- Самостоятельно реализовал 3+ проекта
- Провёл успешные код-ревью
- Участвовал в разрешении production инцидентов
Principal
10+ лет
Ответственность: Enterprise analytics architecture. Data mesh analytics. Semantic layer strategy. Industry best practices.
Ключевые навыки:
- Самостоятельно реализовал 3+ проекта
- Провёл успешные код-ревью
- Участвовал в разрешении production инцидентов
Gap-анализ: навыки для развития
Для перехода на следующий уровень необходимо развить:
Самостоятельно строит DAG Airflow для ELT-пайплайнов с dbt-операторами и проверками качества данных. Настраивает политики повторов, SLA и алертинг для задач трансформации. Оптимизирует параллелизм задач и пулы ресурсов.
Проектирует аналитические дашборды с корректной бизнес-логикой: расчёт метрик на уровне BI vs dbt, параметризованные отчёты, cross-filtering. Оптимизирует производительность дашбордов через правильное моделирование данных в mart-слое.
Пишет сложные аналитические запросы с использованием ClickHouse-специфичных функций: arrayJoin, windowFunnel, retention. Оптимизирует запросы через правильный выбор ORDER BY ключа и использование PREWHERE для фильтрации.
Самостоятельно реализует data pipelines с Dagster / Prefect. Оптимизирует производительность. Обеспечивает data quality.
Самостоятельно поддерживает записи каталога данных для слоя трансформации. Настраивает автоматическое извлечение метаданных из dbt docs и графов lineage. Реализует таксономии тегов и классификацию данных для управляемого self-service доступа.
Самостоятельно определяет контракты данных для выходов слоя трансформации через dbt contracts и schema tests. Реализует автоматическую валидацию контрактов в CI/CD-пайплайнах. Согласует изменения контрактов с upstream-производителями данных.
Самостоятельно внедряет отслеживание lineage данных по слою трансформации dbt. Настраивает lineage на уровне колонок через метаданные dbt и внешние инструменты (OpenLineage, DataHub). Автоматизирует анализ влияния изменений схем.
Настраивает комплексное dbt-тестирование: custom generic tests, dbt expectations package для статистических проверок, freshness tests для source-ов. Реализует data quality dashboards для мониторинга метрик качества.
Проектирует dimensional-модели и семантические слои для множества потребителей данных. Создаёт переиспользуемые dbt-пакеты с правильными стратегиями материализации, инкрементальными моделями и документированными витринами. Реализует slowly changing dimensions и управляет эволюцией схем без нарушения аналитических пайплайнов.
Самостоятельно строит dbt-пайплайны трансформации с инкрементальными моделями, снэпшотами и кастомными макросами. Реализует тесты качества данных с пакетами dbt-expectations и dbt-utils. Настраивает материализации и оптимизирует производительность моделей.
Применяет pandas/polars для сложной предобработки данных: merge разнородных источников, pivot-таблицы, обработка временных рядов. Использует polars для ускорения локальной обработки больших файлов перед загрузкой в warehouse.
Создаёт сложные аналитические запросы с CTE, window-функциями и подзапросами в PostgreSQL. Использует EXPLAIN ANALYZE для профилирования запросов к большим таблицам. Работает с PostgreSQL-специфичными типами: JSONB, ARRAY, INTERVAL.
Разрабатывает сложные SQL-трансформации в dbt: window-функции для расчёта метрик, CTE-цепочки для многошаговой бизнес-логики, Jinja-макросы для DRY-подхода. Реализует incremental-модели с merge-стратегией для оптимизации.
Самостоятельно строит аналитические data-продукты поверх слоёв data lake с использованием dbt и Spark SQL. Оптимизирует производительность запросов через интеллектуальное партиционирование и Z-ordering. Обеспечивает качество данных проверками Great Expectations на границах зон.
Анализирует планы выполнения запросов для определения необходимых индексов в источниках данных. Создаёт составные индексы для типичных аналитических паттернов: фильтрация по дате + dimension. Понимает trade-off между скоростью чтения и записи.
Самостоятельно проектирует схемы и оптимизирует запросы с Миграции БД. Понимает индексирование и планы выполнения запросов. Использует ORM эффективно.
Оптимизирует dbt-модели и SQL-запросы: переписывает подзапросы в CTE, устраняет redundant JOIN-ы, использует incremental-стратегии для тяжёлых моделей. Анализирует query profile в Snowflake/BigQuery для выявления узких мест.
Проектирует dbt-модели по слоям: staging для очистки сырых данных, intermediate для бизнес-логики, marts для потребителей. Применяет dimensional modeling (Kimball) для аналитических витрин. Реализует SCD Type 2 для исторических измерений.
Карьерные переходы
Возможные карьерные траектории для роли Analytics Engineer
🔙 Откуда приходят 1
Роли, из которых часто переходят сюда
╨а╨╛╤Б╤В ╨▓ Analytics Engineering ╤З╨╡╤А╨╡╨╖ dbt ╨╕ data modeling