Senior Data Engineer
do 145 PLN/ godz.B2B (netto)
SeniorFull-time·B2B
#317487·Dodano miesiąc temu·31
Źródło: ScaloTech Stack / Keywords
AIAzure DatabricksPythonAzureData LakeDatabricksAPI
Firma i stanowisko
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
Wymagania
- posiadasz bardzo dobrą znajomość IICS
- masz doświadczenie w pracy z Azure Databricks, Python oraz Spark
- pracowałeś/aś z usługami danych Azure (np. Azure Data Lake, Azure Data Factory)
- posiadasz doświadczenie z narzędziami do ingestii danych (np. Qlik Replicate, MQ, MQCC)
- masz doświadczenie w tworzeniu API (REST/JSON lub podobne)
- dobrze rozumiesz procesy ETL, modelowanie danych oraz podstawy architektury danych
- znasz narzędzia CI/CD oraz systemy kontroli wersji (np. Git)
- posiadasz rozwinięte umiejętności analityczne i rozwiązywania problemów
- masz doświadczenie w pracy w metodykach Agile
- dobrze komunikujesz się i potrafisz współpracować zarówno z zespołami technicznymi, jak i biznesowymi
- posługujesz się językiem angielskim na poziomie zaawansowanym
Nice to have:
- doświadczenie w przetwarzaniu big data oraz optymalizacji pracy w Spark
- znajomość zagadnień data governance, lineage danych oraz najlepszych praktyk bezpieczeństwa
- doświadczenie w pracy z narzędziami do wizualizacji danych (np. Power BI)
Obowiązki
- udział w projekcie realizowanym dla klienta z branży automotive (obszar Data & AI – sprzedaż)
- rozwój oraz utrzymanie skalowalnych rozwiązań danych wspierających procesy sprzedażowe
- utrzymanie i rozwój krytycznych rozwiązań opartych na stosie Synapse / IICS
- aktywny udział w transformacji środowiska danych: migracja do architektury opartej o Azure Databricks
- projektowanie, rozwój oraz optymalizacja nowoczesnych pipeline’ów danych z wykorzystaniem Azure Databricks i Python
- implementacja i rozwój rozwiązań na platformie Azure Data Platform (m.in. Data Lake, Databricks)
- tworzenie i rozwój API wspierających data ingestion oraz integrację między systemami
- współpraca z interesariuszami biznesowymi: analiza wymagań i przekładanie ich na rozwiązania techniczne
- zapewnienie jakości danych, bezpieczeństwa oraz zgodności z obowiązującymi standardami
- integracja rozwiązań danych z istniejącymi systemami i procesami biznesowymi
- optymalizacja rozwiązań pod kątem wydajności, skalowalności i kosztów
- praca hybrydowa: raz w tygodniu we Wrocławiu
Oferta
- Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services)
- możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych
- przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet)
- prywatną opiekę medyczną - Luxmed
- kafeteryjny system benefitów - Motivizer
- dostęp do karty Multisport
- program poleceń pracowniczych z nagrodami
- integracje i wydarzenia firmowe
Opieka zdrowotna
Karta sportowa
Dofinansowanie szkoleń
Spotkania integracyjne
Scalo
520 aktywnych ofert