Senior Data Engineer
Senior Data Engineer
wszystko o danych
Wymiar czasu pracy: Część etatu z możliwością przejścia na pełen etat
Miejsce pracy: Hybrydowo (Warszawa) lub zdalnie
Forma zatrudnienia: Kontrakt B2B
Minimalny czas trwania: Projekt długoterminowy (1 rok+)
Start: Od zaraz
Jest to pełnoetatowa rola hybrydowa z siedzibą w Warszawie, z możliwością pełnej pracy zdalnej, na stanowisku Inżyniera Danych. Inżynier Danych będzie również współpracować z różnymi zespołami, oferując rozwiązania dla wyzwań technicznych i biznesowych.
Zakres obowiązków:
-
Projektowanie i wdrażanie skalowalnych rozwiązań danych z wykorzystaniem Databricks oraz nowoczesnych praktyk inżynierii danych
-
Budowanie solidnych, gotowych do produkcji potoków danych (data pipelines) z naciskiem na bezpieczeństwo, nadzór (governance) i niezawodność
-
Pozyskiwanie, transformacja, walidacja i czyszczenie danych na potrzeby różnych procesów biznesowych
-
Współpraca z interesariuszami biznesowymi w celu przekładania wymagań dotyczących danych na rozwiązania techniczne
-
Utrzymywanie i rozwijanie istniejących potoków danych oraz komponentów platformy
-
Pisanie czystego, testowalnego i dobrze udokumentowanego kodu zgodnie z najlepszymi praktykami kontroli wersji i wdrażania (CI/CD)
-
Diagnozowanie i rozwiązywanie problemów w przepływach danych
-
Udział w projektowaniu technicznym, architekturze i ciągłym doskonaleniu platformy
-
Prowadzenie dokładnej i aktualnej dokumentacji technicznej
-
Wsparcie i rozwój platformy klienta, w tym udział w operacjach i projektowaniu architektury
-
Zarządzanie komponentami platformy Databricks, takimi jak konfiguracja środowiska pracy (workspace), polityki klastra i dostęp użytkowników
-
Stosowanie zasad Infrastructure as Code (IaC) z użyciem narzędzi takich jak Terraform
-
Automatyzacja wdrożeń i zadań monitorujących w środowisku DevOps
-
Dzielenie się wiedzą i wspieranie rozwoju zespołu poprzez dokumentację i sesje techniczne
Technologie:
- Databricks (core platform, notebooks, Unity Catalog)
- Python
- Parquet, Delta Lake
- Power BI
- GitHub
- Azure DevOps
- Terraform
Certyfikaty i inne wymagania:
-
Certyfikaty Databricks (np. Data Engineer Associate / Professional) – mile widziane
-
Certyfikaty Microsoft Azure (np. DP-203, DP-900) – mile widziane
-
Znajomość języka angielskiego na poziomie B2/C1
-
Znajomość języka polskiego na poziomie ojczystym lub C1
-
Miejsce zamieszkania: Polska – wymagane
Zainteresowany/a?
Aplikuj lub napisz bezpośrednio, by porozmawiać o szczegółach!