Senior Data Engineer

19 300 - 24 400 PLN/ mies.B2B (netto)
SeniorFull-time·B2B
#317398·Dodano około miesiąc temu·30
Źródło: SOLID.Jobs
Aplikuj teraz

Tech Stack / Keywords

PythonSparkDatabricksAzureCI/CDGit

Firma i stanowisko

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.


Wymagania

  • bardzo dobra znajomość IICS
  • doświadczenie w pracy z Azure Databricks, Python oraz Spark
  • doświadczenie z usługami danych Azure (np. Azure Data Lake, Azure Data Factory)
  • doświadczenie z narzędziami do ingestii danych (np. Qlik Replicate, MQ, MQCC)
  • doświadczenie w tworzeniu API (REST/JSON lub podobne)
  • dobra znajomość procesów ETL, modelowania danych oraz podstaw architektury danych
  • znajomość narzędzi CI/CD oraz systemów kontroli wersji (np. Git)
  • rozwinięte umiejętności analityczne i rozwiązywania problemów
  • doświadczenie w pracy w metodykach Agile
  • dobra komunikacja i współpraca z zespołami technicznymi i biznesowymi
  • znajomość języka angielskiego na poziomie zaawansowanym

Nice to have:

  • doświadczenie w przetwarzaniu big data oraz optymalizacji pracy w Spark
  • znajomość zagadnień data governance, lineage danych oraz najlepszych praktyk bezpieczeństwa
  • doświadczenie w pracy z narzędziami do wizualizacji danych (np. Power BI)

Obowiązki

  • udział w projekcie realizowanym dla klienta z branży automotive (obszar Data & AI – sprzedaż)
  • rozwój oraz utrzymanie skalowalnych rozwiązań danych wspierających procesy sprzedażowe
  • utrzymanie i rozwój krytycznych rozwiązań opartych na stosie Synapse / IICS
  • aktywny udział w transformacji środowiska danych: migracja do architektury opartej o Azure Databricks
  • projektowanie, rozwój oraz optymalizacja nowoczesnych pipeline’ów danych z wykorzystaniem Azure Databricks i Python
  • implementacja i rozwój rozwiązań na platformie Azure Data Platform (m.in. Data Lake, Databricks)
  • tworzenie i rozwój API wspierających data ingestion oraz integrację między systemami
  • współpraca z interesariuszami biznesowymi: analiza wymagań i przekładanie ich na rozwiązania techniczne
  • zapewnienie jakości danych, bezpieczeństwa oraz zgodności z obowiązującymi standardami
  • integracja rozwiązań danych z istniejącymi systemami i procesami biznesowymi
  • optymalizacja rozwiązań pod kątem wydajności, skalowalności i kosztów
  • praca hybrydowa: raz w tygodniu we Wrocławiu

Oferta

  • 19.3k–24.4k PLN netto/m (B2B)
  • B2B - Elastyczne godziny pracy (100%)
  • Praca zdalna: Hybrydowo
  • Klasy językowe
  • Pakiet medyczny
Kursy językowe
Opieka zdrowotna
Scalo

Scalo

541 aktywnych ofert

Zobacz wszystkie oferty
Aplikuj teraz