Домен
Data Engineering
Профиль навыка
Kafka Streams, Flink, Debezium CDC: real-time data processing
Ролей
2
где встречается этот навык
Грейдов
5
сформированная дорожка роста
Обязательных требований
8
ещё 2 — необязательные
Data Engineering
Stream-обработка
17.03.2026
Выберите текущий грейд и сравните ожидания. Карточки ниже покажут, что нужно закрыть для следующего уровня.
Таблица показывает, как меняется глубина владения навыком от Junior до Principal.
| Роль | Обязательность | Описание |
|---|---|---|
| Backend Developer (Scala) | Понимает основы топологий Kafka Streams: sources, processors и sinks. Читает существующий код потоковой обработки и следует установленным паттернам для stateless-преобразований. | |
| Data Engineer | Обязателен | Понимает основы Kafka Streams, включая двойственность KStream/KTable. Пишет простые потоковые consumers и producers для этапов загрузки данных в pipeline. |
| Роль | Обязательность | Описание |
|---|---|---|
| Backend Developer (Scala) | Реализует stateful-обработку потоков с Kafka Streams, используя оконные агрегации и joins на Scala. Настраивает хранилища состояний RocksDB для пропускной способности и управляет changelog-топиками. | |
| Data Engineer | Обязателен | Строит ETL-пайплайны реального времени с Kafka Streams для трансформации и обогащения данных. Реализует семантику exactly-once и мониторит consumer lag на этапах обработки. |
| Роль | Обязательность | Описание |
|---|---|---|
| Backend Developer (Scala) | Обязателен | Проектирует распределённые архитектуры потоковой обработки с Kafka Streams для микросервисов на Scala. Реализует кастомные SerDes, interactive queries для доступа к state store и стратегии параллелизма на уровне партиций. |
| Data Engineer | Обязателен | Проектирует сквозные архитектуры потоковых данных с Kafka Streams для высоконагруженных pipeline. Оркестрирует сложную обработку событий, реализует стратегии эволюции схем и оптимизирует обработку backpressure. |
| Роль | Обязательность | Описание |
|---|---|---|
| Backend Developer (Scala) | Обязателен | Определяет стандарты потоковой обработки данных в Scala-команде: выбор между Kafka Streams, FS2-Kafka и Akka Streams для конкретных use case-ов. Ревьюит топологии стрим-процессоров, внедряет паттерны exactly-once обработки, настраивает мониторинг consumer lag и stream processing latency. |
| Data Engineer | Обязателен | Определяет streaming-стандарты: Kafka Streams vs Flink, windowing policies, state management. Внедряет мониторинг consumer lag и processing latency. Выбирает between exactly-once и at-least-once. |
| Роль | Обязательность | Описание |
|---|---|---|
| Backend Developer (Scala) | Обязателен | Формирует стратегию потоковой обработки данных для Scala-платформы: архитектура real-time data pipeline через Kafka Streams/Flink, стандарты state management. Принимает решения по масштабированию stream processing кластеров, определяет SLA для end-to-end latency и интеграцию с Data Mesh подходом. |
| Data Engineer | Обязателен | Проектирует streaming-архитектуру data-платформы: Kafka Streams для lightweight processing, Flink для complex CEP, hybrid batch+streaming. Определяет lambda vs kappa architecture по сценарию. |