Nowa
Data Engineer
do 165 PLN/ godz.B2B (netto)
SeniorFull-time·B2B
#346900·Dodano dziś·0
Źródło: ScaloTech Stack / Keywords
GCPBigQueryKafkaPythonPySparkAirflowETLApache Airflow
Firma i stanowisko
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
Wymagania
- posiadasz min. 5-letnie doświadczenie jako Data Engineer w GCP w obszarze integracji danych
- bardzo dobrze znasz GCP BigQuery, BigTable oraz Scylla Cloud (projektowanie, budowa, tuning)
- masz doświadczenie z Apache Airflow, GCP DataFlow oraz DataProc
- pracowałeś z systemami kolejkowymi (Kafka, GCP Pub/Sub)
- posiadasz min. 4-letnie doświadczenie w ETL na środowiskach on-prem
- bardzo dobrze znasz narzędzia ETL (Informatica PowerCenter, NiFi)
- posiadasz ekspercką wiedzę z zakresu baz danych (Oracle, PostgreSQL, ScyllaDB)
- masz doświadczenie z narzędziem Automate Now firmy Infinity Data
- potrafisz tworzyć i wystawiać usługi REST API
- posiadasz min. 3-letnie doświadczenie w Python (w tym PySpark)
- znasz język Rust w kontekście budowy wydajnych narzędzi
- znasz Linux na poziomie zaawansowanym
- masz doświadczenie w pracy z dużymi wolumenami danych
- cechuje Cię analityczne myślenie, samodzielność i kreatywność
Nice to have:
- znajomość Java (microservices)
- Git
- Grafana
- Apache JMeter
Obowiązki
- uczestnictwo w projekcie z branży bankowej, obejmującym przetwarzanie dużych wolumenów danych (~100TB) oraz budowę rozwiązań do wysokowydajnej integracji i udostępniania danych
- projektowanie, budowa i tuning rozwiązań data engineeringowych w środowisku GCP
- tworzenie i rozwój procesów integracji danych (ETL/ELT) w chmurze i środowisku on-prem
- utrzymanie i rozwój pipeline’ów danych z wykorzystaniem Apache Airflow oraz DataFlow
- optymalizacja wydajności przetwarzania i ładowania danych (BigQuery, BigTable, ScyllaDB)
- praca z systemami kolejkowymi (Kafka, Pub/Sub)
- tworzenie i utrzymywanie usług REST API
- rozwój narzędzi wspierających przetwarzanie danych (Python, PySpark, Rust)
- zarządzanie harmonogramowaniem procesów (Automate Now)
- współpraca przy migracji i integracji rozwiązań on-prem z GCP
- praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie
Oferta
- Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services)
- Możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych
- Przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet)
- Prywatną opiekę medyczną - Luxmed
- Kafeteryjny system benefitów - Motivizer
- Dostęp do karty Multisport
- Program poleceń pracowniczych z nagrodami
- Integracje i wydarzenia firmowe
Opieka zdrowotna
Karta sportowa
Dofinansowanie szkoleń
Spotkania integracyjne
Scalo
533 aktywne oferty