pl

Senior Data Engineer

Senior Data Engineer

Wymiar czasu pracy: Część etatu z możliwością przejścia na pełen etat

Miejsce pracy: Hybrydowo (Warszawa) lub zdalnie

Forma zatrudnienia: Kontrakt B2B

Minimalny czas trwania: Projekt długoterminowy (1 rok+)

Start: Od zaraz

Jest to pełnoetatowa rola hybrydowa z siedzibą w Warszawie, z możliwością pełnej pracy zdalnej, na stanowisku Inżyniera Danych. Inżynier Danych będzie również współpracować z różnymi zespołami, oferując rozwiązania dla wyzwań technicznych i biznesowych.

Zakres obowiązków:

  • Projektowanie i wdrażanie skalowalnych rozwiązań danych z wykorzystaniem Databricks oraz nowoczesnych praktyk inżynierii danych

  • Budowanie solidnych, gotowych do produkcji potoków danych (data pipelines) z naciskiem na bezpieczeństwo, nadzór (governance) i niezawodność

  • Pozyskiwanie, transformacja, walidacja i czyszczenie danych na potrzeby różnych procesów biznesowych

  • Współpraca z interesariuszami biznesowymi w celu przekładania wymagań dotyczących danych na rozwiązania techniczne

  • Utrzymywanie i rozwijanie istniejących potoków danych oraz komponentów platformy

  • Pisanie czystego, testowalnego i dobrze udokumentowanego kodu zgodnie z najlepszymi praktykami kontroli wersji i wdrażania (CI/CD)

  • Diagnozowanie i rozwiązywanie problemów w przepływach danych

  • Udział w projektowaniu technicznym, architekturze i ciągłym doskonaleniu platformy

  • Prowadzenie dokładnej i aktualnej dokumentacji technicznej

  • Wsparcie i rozwój platformy klienta, w tym udział w operacjach i projektowaniu architektury

  • Zarządzanie komponentami platformy Databricks, takimi jak konfiguracja środowiska pracy (workspace), polityki klastra i dostęp użytkowników

  • Stosowanie zasad Infrastructure as Code (IaC) z użyciem narzędzi takich jak Terraform

  • Automatyzacja wdrożeń i zadań monitorujących w środowisku DevOps

  • Dzielenie się wiedzą i wspieranie rozwoju zespołu poprzez dokumentację i sesje techniczne

Technologie:

  • Databricks (core platform, notebooks, Unity Catalog)
  • Python
  • Parquet, Delta Lake
  • Power BI
  • GitHub
  • Azure DevOps
  • Terraform

Certyfikaty i inne wymagania:

  • Certyfikaty Databricks (np. Data Engineer Associate / Professional) – mile widziane

  • Certyfikaty Microsoft Azure (np. DP-203, DP-900) – mile widziane

  • Znajomość języka angielskiego na poziomie B2/C1

  • Znajomość języka polskiego na poziomie ojczystym lub C1

  • Miejsce zamieszkania: Polskawymagane

Zainteresowany/a?

Aplikuj lub napisz bezpośrednio, by porozmawiać o szczegółach!

Aplikuj