Інженер даних (ETL/DBT/BigQuery)

Здесь ты найдёшь команду, которая поддерживает, ценит твои идеи и поощряет развитие. Работая с опытными специалистами и имея возможность напрямую влиять на продукт, ты увидишь ощутимый результат своего вклада. С такой командой и прибыльным продуктом у нас амбициозная цель - войти в топ-5 международных платформ в своей нише.

О роли Data Engineer: ты получишь возможность участвовать в разработке совершенно новой платформы Data Lakehouse, работать с новейшими технологиями экосистемы GCP и развивать экспертизу в области дата-архитектуры. Ты станешь частью команды, которая ценит ownership-мышление, прислушивается к обоснованным инициативам и готова воплощать их в жизнь!

В этой роли ты будешь

  • Владеть процессом миграции с ClickHouse на BigQuery, охватывая исторические и инкрементальные данные с гарантией целостности, точности и производительности.
  • Проектировать масштабируемую архитектуру BigQuery с оптимальным партиционированием, кластеризацией и структурой схем для аналитических и операционных нагрузок.
  • Разрабатывать и поддерживать автоматизированные ETL/ELT-пайплайны с помощью Cloud Composer, Dataflow или кастомных скриптов.
  • Создавать агрегированные наборы данных и дата-марты для аналитики, отчётности и дашбордов с оптимальными затратами на запросы.
  • Внедрять автоматизированные проверки качества данных, мониторинг и алертинг для обеспечения стабильности и выявления аномалий.
  • Мониторить и оптимизировать продуктивную дата-инфраструктуру, повышая эффективность, управляя затратами и применяя лучшие практики BigQuery.

Мы подойдём друг другу, если ты

  • Имеешь 5+ лет опыта Data Engineer в крупномасштабной среде данных.
  • Обладаешь сильными навыками моделирования данных и методологиями DWH.
  • Имеешь опыт разработки ETL-процессов (dbt будет преимуществом).
  • Уверенно пишешь сложные, оптимизированные SQL-запросы.
  • Хорошо владеешь Python или Spark.
  • Имеешь глубокие знания BigQuery, включая партиционирование, кластеризацию и оптимизацию затрат.
  • Знаешь архитектуру ClickHouse, его SQL-диалект и процессы миграции.
  • Имеешь практический опыт с сервисами GCP: Cloud Storage или Pub/Sub, Cloud Run, Cloud Composer, Cloud Functions и Compute Engine.
  • Обладаешь навыками построения измерительных моделей и дата-мартов.
  • Знаком(а) с Git и CI/CD для дата-процессов.
  • Имеешь опыт настройки мониторинга, алертинга и валидации пайплайнов в продакшене.
  • Умеешь эффективно управлять затратами в GCP.
  • Участвовал(а) в крупных проектах миграции систем.
  • Мыслишь как владелец продукта - проактивно, ориентируешься на результат и готов(а) брать ответственность за свои решения.

Будет плюсом

  • Опыт интеграции с BI-инструментами (Tableau, Looker).

Что мы предлагаем

Поддержка и забота

  • 20 оплачиваемых дней отпуска, 15 sick leaves и 6 дополнительных дней для семейных событий.
  • До 10 дней в год выходных на государственные праздники.
  • 100% покрытие медицинской страховки.
  • Компенсация спорта и экипировки.
  • Онлайн-йога с инструктором из УФЙ.
  • Тимбилдинги, корпоративные подарки и стильный мерч.
  • Финансовая и юридическая поддержка.
  • Сохранение рабочего места и поддержка для тех, кто вступил в ряды ВСУ.
  • Участие в социальных активностях в поддержку Украины.

Комфортная рабочая среда

  • Работай из нашего хаба в Киеве по гибкому графику.
  • Получишь современные гаджеты и инструменты для работы.

Вклад в твоё будущее

  • Будешь сотрудничать с опытной командой Middle и Senior-специалистов, готовых делиться экспертизой и практическими кейсами.
  • 70% наших хедов и лидов выросли внутри United Tech - сможешь и ты!
  • Регулярное performance-review и Индивидуальный план развития (ИПР).
  • Компенсируем профильное обучение и занятия английским.
  • Доступ к корпоративной библиотеке, книжному клубу и командным knowledge-sharing встречам.