Seerio
Seerio
Nowa

Remote AI/LLM Backend Engineer

18 000 - 23 000 PLN/ mies.B2B (netto)
SeniorFull-time·B2B
#337996·Dodano dziś·0
Źródło: nofluffjobs.com
Aplikuj teraz

Tech Stack / Keywords

APIJSONNode.jsPythonExpressFastAPIPostgreSQLREST APIReactTypeScriptLLMOpenAIFastifyRAGintent classificationevals frameworks

Firma i stanowisko

Seerio to platforma analityczna dla rynku MICE (Meetings, Incentives, Conferences, Events). Obsługujemy ponad 500 hoteli największych sieci - Marriott, Radisson, IHG, Accor i innych. Na podstawie naszych danych hotele i sieci podejmują decyzje komercyjne w segmencie eventowym: pricing, prospecting, planowanie sprzedaży, alokacja przestrzeni.


Wymagania

  • 3–6 lat doświadczenia backendowego, w tym min. 1-2 lata produkcyjnej pracy z LLM
  • Znajomość Anthropic API (Claude) lub OpenAI: function calling, structured JSON output
  • Prompt engineering na poziomie systemowym, w tym wersjonowanie i testowanie promptów
  • Doświadczenie w Node.js lub Python (Express/Fastify/FastAPI), PostgreSQL, REST API design, SOLID
  • Doświadczenie z integracjami między systemami: REST, webhooki, kolejki, obsługa niedoskonałych danych po stronie zewnętrznej
  • Znajomość React/TypeScript na poziomie współpracy: czytanie kodu, podpinanie API, debugowanie end-to-end
  • Swobodna komunikacja w języku polskim i angielskim

Nice to have:

  • RAG, intent classification, evals frameworks (Braintrust, Langfuse)
  • Doświadczenie z produktem domenowym (hotelarstwo, MICE, revenue management, BI/analytics)
  • Praca z pipeline'ami danych i modelami forecastowymi w produkcji

Obowiązki

Intelligence Layer:

  • Projektowanie i implementacja warstwy AI: prompty z output schema, Intent Classifier, Confidence Scoring Engine
  • Świadomie deterministyczny, nie ML

Ask Seerio Chat:

  • Architektura konwersacyjna z function calling, context injection per screen i pakiet, streaming, evals

Forecast Engine:

  • Model trójwarstwowy, cold start, confidence intervals
  • Praca z architekturą danych i logiką analityczną

Jakość LLM na produkcji:

  • Repeatable test suites, obsługa błędów modelu, wersjonowanie promptów, monitoring kosztów i latencji

Backend produktowy:

  • Endpointy obsługujące Intelligence Layer i Ask Seerio
  • Refaktor istniejącego kodu
  • Modelowanie danych w PostgreSQL pod nowe funkcje

Integracje i pipeline danych:

  • Utrzymanie i rozwój integracji z systemami klientów (PMS-y hotelowe, źródła danych sieciowych)
  • Obsługa anomalii w przychodzących danych
  • Praca nad jakością i kompletnością danych zasilających modele forecastowe

Współpraca z frontem:

  • Kontrakty API z aplikacją React/TypeScript
  • Debug end-to-end (czat, forecast view, panele rekomendacji)

Produkcja i niezawodność:

  • Własność uruchamianych funkcji po wdrożeniu: monitoring, reagowanie na incydenty, hotfixy

Współudział w decyzjach produktowych:

  • Rozmowy z product designem i założycielami
  • Decyzje dotyczące użycia promptów, reguł, poprawy danych

Oferta

  • Warstwę AI projektowaną od zera w produkcie analitycznym używanym przez 500+ hoteli
  • Autonomię techniczną w swoim obszarze
  • Domenę - za rok wiedza o rynku MICE większa niż większości developerów w Polsce
  • Realny wpływ na roadmapę
  • Pracę zdalną
  • Widełki: 18–23k PLN B2B
Seerio

Seerio

Pracodawca

Aplikuj teraz