Data Engineer (Senior)

165 PLN/ godz.B2B (netto)
SeniorFull-time·B2B
#324707·Dodano 21 dni temu·42
Źródło: theprotocol.it
Aplikuj teraz

Tech Stack / Keywords

Google Cloud PlatformApache AirflowKafkaOraclePostgreSQLScyllaDBPythonPySparkRustJavaGitGrafanaApache JMeter

Firma i stanowisko

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.

Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.


Wymagania

  • masz co najmniej 5-letnie doświadczenie jako Data Engineer GCP w obszarze procesów integracji danych na GCP
  • bardzo dobrze znasz bazy danych GCP: GCP Big Query, GCP Big Table, Scylla Cloud
  • dobrze znasz narzędzia ETL Flow na GCP: Apache AirFlow, GCP Data Flow, GCP Data Proc
  • korzystasz z kolejek Kafka oraz GCP Pub / Sub
  • masz co najmniej 4-letnie doświadczenie jako Developer ETL w obszarze procesów integracji danych on-prem
  • biegle posługujesz się narzędziami ETL on-prem na poziomie zaawansowanym: Informatica Power Center, NIFI
  • posiadasz ekspercką znajomość relacyjnych baz danych Oracle, PostgreSQL, ScyllaDB
  • bardzo dobrze znasz narzędzie harmonogramujące Automate Now firmy Infinity Data
  • potrafisz wystawiać usługi Rest API
  • masz co najmniej 3-letnie doświadczenie jako programista
  • biegle znasz Python w obszarze integracji i analizy danych oraz framework PySpark
  • znasz język Rust do pisania narzędzi i frameworków wspomagających wydajne ładowanie danych

Nice to have:

  • podstawowa wiedza w zakresie programowania MicroServices w języku JAVA
  • korzystanie z systemu operacyjnego Linux na poziomie zaawansowanego użytkownika
  • doświadczenie w pracy z dużymi wolumenami danych ~100TB
  • umiejętności analitycznego myślenia i szybkiego przyswajania wiedzy
  • samodzielność i kreatywność w rozwiązywaniu problemów
  • terminowość i rzetelność w realizacji projektów
  • znajomość narzędzi pomocniczych: repozytorium GIT, narzędzi do monitorowania jak np. Grafana, narzędzi do testów wydajności jak Apache JMeter

Obowiązki

  • praca w obszarze procesów integracji danych na GCP
  • praca w obszarze procesów integracji danych on-prem
  • projektowanie, budowa i tuning baz danych
  • korzystanie z narzędzi ETL na GCP i on-prem
  • korzystanie z kolejek Kafka oraz GCP Pub / Sub
  • wystawianie usług Rest API
  • praca w języku Python oraz z frameworkiem PySpark
  • wykorzystanie języka Rust do pisania narzędzi i frameworków wspomagających wydajne ładowanie danych
  • z czasem przejęcie odpowiedzialności za wybrany obszar przetwarzania i wystawiania danych pod usługi w wysokim reżimie wydajnościowym
  • praca w modelu hybrydowym 1 raz w tygodniu z biura w Warszawie.

Oferta

  • stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services)

  • możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych

  • przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet)

  • prywatną opiekę medyczną - Luxmed

  • kafeteryjny system benefitów - Motivizer

  • dostęp do karty Multisport

  • program poleceń pracowniczych z nagrodami

  • integracje i wydarzenia firmowe

  • dofinansowanie zajęć sportowych

  • prywatna opieka medyczna

  • ubezpieczenie na życie

  • spotkania integracyjne

  • program rekomendacji pracowników

  • inicjatywy dobroczynne

Karta sportowa
Opieka zdrowotna
Ubezpieczenie
Imprezy teamowe
Płatne święta
Bonusy
Scalo

Scalo

533 aktywne oferty

Zobacz wszystkie oferty
Aplikuj teraz