Backend developer Kotlin
Brak informacji o wynagrodzeniu
SeniorFull-time·B2B
#298567·Dodano 2 miesiące temu·61
Źródło: ConnectisTech Stack / Keywords
GCPBig queryVertex AIPythonScalaAirflowAzure Machine LearningKotlinJavaMongodbTerraformSQLSparkLooker studioReact.js
Firma i stanowisko
Wspólnie z Naszym Partnerem z branży e-commerce, jednej z największych rozwijających się platform handlowych w Europie Środkowo-Wschodniej poszukujemy doświadczonej osoby na stanowisko Senior Software Engineer / Data Scientist w obszarze monitorowania cen, asortymentu i mapowania danych zewnętrznych.
Dołączysz do zespołu odpowiedzialnego za budowę systemów działających w czasie rzeczywistym, które monitorują i analizują dane dotyczące ofert, cen oraz asortymentu, zarówno wewnętrzne, jak i pozyskiwane ze źródeł zewnętrznych. Kluczowym wyzwaniem jest mapowanie, normalizacja i ujednolicanie danych z różnych źródeł, tak aby zasilać nimi modele analityczne i predykcyjne wspierające decyzje biznesowe.
Wymagania
- Min. 3-6 lat doświadczenia w Software Engineering.
- Doświadczenie z MongoDB (modelowanie dokumentowe) oraz biegły SQL w kontekście BigQuery.
- Doświadczenie w pracy z systemami Big Data i rozumienie wyzwań wydajnościowych.
- Doświadczenie z Feature Engineering i rozumienie pełnego cyklu życia modeli AI.
- Znajomość Python/Scala w kontekście procesowania danych (Apache Spark).
- Praktyczna znajomość Vertex AI (eksperymenty, endpointy, Feature Store).
- Praktyczne doświadczenie z Apache Airflow / Google Cloud Composer.
- Znajomość usług GCP i zarządzanie infrastrukturą przez Terraform (IaC).
- Zaawansowane rozumienie metod statystycznych.
- Biegła znajomość Kotlin lub Java (backend).
- Język angielski na poziomie biegłym.
Mile widziane:
- Doświadczenie z Looker Studio - budowanie dashboardów i wizualizacji BI.
- Tworzenie komponentów frontendowych w ReactJS.
Obowiązki
- Wsparcie w przygotowywaniu i trenowaniu modeli AI/ML, przeprowadzanie testów A/B, walidacja hipotez badawczych.
- Rozwój usług backendowych w Kotlin/Java oraz przetwarzanie dużych wolumenów danych w Scala i BigQuery.
- Projektowanie, implementacja i utrzymanie potoków danych (Apache Airflow / Cloud Composer) na GCP.
- Wizualizacja wyników analiz i prezentowanie ich interesariuszom biznesowym (Data Storytelling).
- Zapewnienie wiarygodności i jakości danych w potokach przetwarzania (Data Veracity).
- Udział w usłudze gotowości technicznej (on-call / reagowanie na incydenty).
- Zarządzanie infrastrukturą chmurową GCP z wykorzystaniem Terraform.
Oferta
- Projekty z realnym wpływem, Twój kod i Twoje modele działają na danych milionów transakcji i wpływają na decyzje dziesiątek tysięcy sprzedawców.
- Praca zdalna na co dzień, pracujesz skąd chcesz. Raz na kwartał spotykasz się z zespołem w Warszawie lub Poznaniu.
- Stabilność + perspektywa - współpraca do końca 2026 roku z możliwością przedłużenia. Zaczynasz ASAP.
- Uczestnictwo w spotkaniach integracyjnych oraz meetupach technologicznych.
- Wsparcie dedykowanej osoby kontaktowej z Connectis.
- 5000 PLN za polecenie znajomych do projektów.
- Stabilna, długofalowa współpraca w oparciu o B2B.
- Proces rekrutacyjny zdalny.
Płatny urlop
Imprezy teamowe
Connectis_
135 aktywnych ofert