Senior Data Engineer
19 300 - 24 400 PLN/ mies.B2B (netto)
SeniorFull-time·B2B
#317398·Dodano około miesiąc temu·30
Źródło: SOLID.JobsTech Stack / Keywords
PythonSparkDatabricksAzureCI/CDGit
Firma i stanowisko
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
Wymagania
- bardzo dobra znajomość IICS
- doświadczenie w pracy z Azure Databricks, Python oraz Spark
- doświadczenie z usługami danych Azure (np. Azure Data Lake, Azure Data Factory)
- doświadczenie z narzędziami do ingestii danych (np. Qlik Replicate, MQ, MQCC)
- doświadczenie w tworzeniu API (REST/JSON lub podobne)
- dobra znajomość procesów ETL, modelowania danych oraz podstaw architektury danych
- znajomość narzędzi CI/CD oraz systemów kontroli wersji (np. Git)
- rozwinięte umiejętności analityczne i rozwiązywania problemów
- doświadczenie w pracy w metodykach Agile
- dobra komunikacja i współpraca z zespołami technicznymi i biznesowymi
- znajomość języka angielskiego na poziomie zaawansowanym
Nice to have:
- doświadczenie w przetwarzaniu big data oraz optymalizacji pracy w Spark
- znajomość zagadnień data governance, lineage danych oraz najlepszych praktyk bezpieczeństwa
- doświadczenie w pracy z narzędziami do wizualizacji danych (np. Power BI)
Obowiązki
- udział w projekcie realizowanym dla klienta z branży automotive (obszar Data & AI – sprzedaż)
- rozwój oraz utrzymanie skalowalnych rozwiązań danych wspierających procesy sprzedażowe
- utrzymanie i rozwój krytycznych rozwiązań opartych na stosie Synapse / IICS
- aktywny udział w transformacji środowiska danych: migracja do architektury opartej o Azure Databricks
- projektowanie, rozwój oraz optymalizacja nowoczesnych pipeline’ów danych z wykorzystaniem Azure Databricks i Python
- implementacja i rozwój rozwiązań na platformie Azure Data Platform (m.in. Data Lake, Databricks)
- tworzenie i rozwój API wspierających data ingestion oraz integrację między systemami
- współpraca z interesariuszami biznesowymi: analiza wymagań i przekładanie ich na rozwiązania techniczne
- zapewnienie jakości danych, bezpieczeństwa oraz zgodności z obowiązującymi standardami
- integracja rozwiązań danych z istniejącymi systemami i procesami biznesowymi
- optymalizacja rozwiązań pod kątem wydajności, skalowalności i kosztów
- praca hybrydowa: raz w tygodniu we Wrocławiu
Oferta
- 19.3k–24.4k PLN netto/m (B2B)
- B2B - Elastyczne godziny pracy (100%)
- Praca zdalna: Hybrydowo
- Klasy językowe
- Pakiet medyczny
Kursy językowe
Opieka zdrowotna
Scalo
541 aktywnych ofert