Інженер даних (ETL/DBT/BigQuery)
Здесь ты найдёшь команду, которая поддерживает, ценит твои идеи и поощряет развитие. Работая с опытными специалистами и имея возможность напрямую влиять на продукт, ты увидишь ощутимый результат своего вклада. С такой командой и прибыльным продуктом у нас амбициозная цель - войти в топ-5 международных платформ в своей нише.
О роли Data Engineer: ты получишь возможность участвовать в разработке совершенно новой платформы Data Lakehouse, работать с новейшими технологиями экосистемы GCP и развивать экспертизу в области дата-архитектуры. Ты станешь частью команды, которая ценит ownership-мышление, прислушивается к обоснованным инициативам и готова воплощать их в жизнь!
В этой роли ты будешь
- Владеть процессом миграции с ClickHouse на BigQuery, охватывая исторические и инкрементальные данные с гарантией целостности, точности и производительности.
- Проектировать масштабируемую архитектуру BigQuery с оптимальным партиционированием, кластеризацией и структурой схем для аналитических и операционных нагрузок.
- Разрабатывать и поддерживать автоматизированные ETL/ELT-пайплайны с помощью Cloud Composer, Dataflow или кастомных скриптов.
- Создавать агрегированные наборы данных и дата-марты для аналитики, отчётности и дашбордов с оптимальными затратами на запросы.
- Внедрять автоматизированные проверки качества данных, мониторинг и алертинг для обеспечения стабильности и выявления аномалий.
- Мониторить и оптимизировать продуктивную дата-инфраструктуру, повышая эффективность, управляя затратами и применяя лучшие практики BigQuery.
Мы подойдём друг другу, если ты
- Имеешь 5+ лет опыта Data Engineer в крупномасштабной среде данных.
- Обладаешь сильными навыками моделирования данных и методологиями DWH.
- Имеешь опыт разработки ETL-процессов (dbt будет преимуществом).
- Уверенно пишешь сложные, оптимизированные SQL-запросы.
- Хорошо владеешь Python или Spark.
- Имеешь глубокие знания BigQuery, включая партиционирование, кластеризацию и оптимизацию затрат.
- Знаешь архитектуру ClickHouse, его SQL-диалект и процессы миграции.
- Имеешь практический опыт с сервисами GCP: Cloud Storage или Pub/Sub, Cloud Run, Cloud Composer, Cloud Functions и Compute Engine.
- Обладаешь навыками построения измерительных моделей и дата-мартов.
- Знаком(а) с Git и CI/CD для дата-процессов.
- Имеешь опыт настройки мониторинга, алертинга и валидации пайплайнов в продакшене.
- Умеешь эффективно управлять затратами в GCP.
- Участвовал(а) в крупных проектах миграции систем.
- Мыслишь как владелец продукта - проактивно, ориентируешься на результат и готов(а) брать ответственность за свои решения.
Будет плюсом
- Опыт интеграции с BI-инструментами (Tableau, Looker).
Что мы предлагаем
Поддержка и забота
- 20 оплачиваемых дней отпуска, 15 sick leaves и 6 дополнительных дней для семейных событий.
- До 10 дней в год выходных на государственные праздники.
- 100% покрытие медицинской страховки.
- Компенсация спорта и экипировки.
- Онлайн-йога с инструктором из УФЙ.
- Тимбилдинги, корпоративные подарки и стильный мерч.
- Финансовая и юридическая поддержка.
- Сохранение рабочего места и поддержка для тех, кто вступил в ряды ВСУ.
- Участие в социальных активностях в поддержку Украины.
Комфортная рабочая среда
- Работай из нашего хаба в Киеве по гибкому графику.
- Получишь современные гаджеты и инструменты для работы.
Вклад в твоё будущее
- Будешь сотрудничать с опытной командой Middle и Senior-специалистов, готовых делиться экспертизой и практическими кейсами.
- 70% наших хедов и лидов выросли внутри United Tech - сможешь и ты!
- Регулярное performance-review и Индивидуальный план развития (ИПР).
- Компенсируем профильное обучение и занятия английским.
- Доступ к корпоративной библиотеке, книжному клубу и командным knowledge-sharing встречам.