MLOps Engineer

Brak informacji o wynagrodzeniu
MidFull-time
#339015·Dodano dziś·0
Źródło: nofluffjobs.com
Aplikuj teraz

Tech Stack / Keywords

DockerKubernetesHelmAzure MLAKSAWSGCPAzure DevOpsGitHub ActionsJenkinsPythonBashMLflowKubeflowInfrastructure as CodeLLMGenAIRAGPrometheusGrafanaAzure Monitor

Firma i stanowisko

Do zespołu rozwijającego platformę AI w branży ubezpieczeniowej poszukujemy MLOps Engineer’a, który będzie odpowiadać za projektowanie, budowę i utrzymanie środowiska MLOps/LLMOps w chmurze Azure. Rola łączy kompetencje DevOps, Cloud i Machine Learning Engineering – z silnym naciskiem na automatyzację, niezawodność i bezpieczeństwo rozwiązań AI.


Wymagania

  • Minimum 3 lata doświadczenia w obszarze DevOps / MLOps / Software Engineering, w tym praca z modelami ML na produkcji.
  • Bardzo dobra znajomość Docker i Kubernetes (zarządzanie klastrami, Helm, Ingress).
  • Doświadczenie z chmurą publiczną – preferowany Azure (Azure ML, AKS, ACR) lub AWS/GCP z gotowością do szybkiego wejścia w Azure.
  • Praktyka w budowie pipeline’ów CI/CD (Azure DevOps, GitHub Actions, Jenkins), uwzględniających specyfikę ML.
  • Bardzo dobra znajomość Python oraz skryptowania (Bash/Shell).
  • Doświadczenie z narzędziami MLOps (MLflow, Kubeflow lub rozwiązania natywne chmury).
  • Znajomość Infrastructure as Code (Terraform, Bicep lub Ansible).
  • Wykształcenie wyższe techniczne (informatyka lub kierunki pokrewne).
  • Świadczenie usług z terytorium Polski i gotowość do pracy hybrydowej (1 dzień w tygodniu w biurze).

Nice to have:

  • Certyfikaty: Azure DevOps Engineer Expert (AZ-400), Azure AI Engineer (AI-102).
  • Doświadczenie z LLM, GenAI, architekturami RAG.
  • Znajomość narzędzi monitoringu: Prometheus, Grafana, Azure Monitor.
  • Rozumienie sieci w chmurze hybrydowej (VPN, VNet, Private Endpoints).
  • Doświadczenie z bazami wektorowymi (np. Azure AI Search).

Obowiązki

  • Projektowanie, budowa i utrzymanie platformy AI/MLOps w środowisku hybrydowym (cloud + on-premise).
  • Tworzenie skalowalnej infrastruktury do trenowania i serwowania modeli przy użyciu Azure Machine Learning, Azure AI Foundry oraz AKS.
  • Budowa i rozwój pipeline’ów CI/CD/CT dla rozwiązań ML (automatyczne testy, wersjonowanie danych i modeli, continuous training).
  • Konteneryzacja i orkiestracja: przygotowanie obrazów Docker dla modeli AI/GenAI oraz wdrażanie ich na Kubernetes (AKS).
  • Implementacja monitoringu i observability: logowanie, alertowanie, monitoring modeli (data drift, model drift, jakość predykcji).
  • Wsparcie inicjatyw związanych z AI Act: audytowalność modeli, lineage danych, bezpieczeństwo, kontrola dostępu, szyfrowanie.
  • Optymalizacja kosztów i wydajności: skalowanie infrastruktury, zarządzanie zasobami Azure, poprawa czasu inferencji.
  • Współpraca z zespołami Data Science, IT Operations, Security i biznesem.

Oferta

  • Realny wpływ na budowę platformy AI w dużej, regulowanej organizacji.
  • Praca z nowoczesnym stosem technologicznym (Azure, MLOps, GenAI).
  • Projekty łączące skalę enterprise, bezpieczeństwo i innowacje AI.
  • Model hybrydowy – tylko 1 dzień w tygodniu z biura.

Inne informacje

Świadczenie usług z terytorium Polski i gotowość do pracy hybrydowej (1 dzień w tygodniu w biurze).

Antal Sp. z o.o.

Antal Sp. z o.o.

956 aktywnych ofert

Zobacz wszystkie oferty
Aplikuj teraz