Widełki wynagrodzenia przewidziane przy tym stanowisku to: 16 100 - 23 200 PLN brutto
W ramach obszaru Data & AI realizujemy projekty oparte o praktyczną aplikację "data science" i "artificial intelligence" o niespotykanej w Polsce skali. Data & AI to grupa ponad 100 doświadczonych inżynierów BigData zorganizowanych w kilkanaście zespołów o różnych specjalizacjach. Część z nich buduje dedykowane narzędzia do tworzenia i uruchamiania przetwarzań BigData czy wdrażania modeli ML dla całej organizacji. Inni pracują bliżej klienta i odpowiadają za realizację silnika wyszukiwarki, tworzenie rekomendacji, budowania profilu kupujących czy rozwój platformy eksperymentacyjnej. W obszarze są też zespoły badawcze, których celem jest szukanie rozwiązań dla nietrywialnych problemów wymagających stosowania uczenia maszynowego.
Dołącz do nas!
Szukamy inżynierów i inżynierek BigData którzy/które chcą budować platformę danych oraz rozwiązania dla milionów klientów Allegro, np:
System zapewniający możliwość materializacji eventów (krążących pomiędzy mikroserwisami) do postaci umożliwiającej budowanie analiz za pomocą narzędzi Big Data. Nasze codzienne wyzwania to skala ruchu, strukturyzacja informacji oraz streamowa synchronizacja zbiorów pomiędzy rozwiązaniami lokalnymi oraz środowiskiem public cloud
Rozproszony system do zbierania informacji i analizy zachowań klientów Allegro. Zbieranie danych: Scala + Akka + Kafka, przetwarzania real-time: Beam + Scio + Dataflow + Pubsub, przetwarzania batch: Spark + Airflow + BigQuery, wizualizacje: TypeScript + React
Procesy agregacji metadanych, zintegrowane z platformą danych Allegro, które mają wspierać narzędzia oraz procesy z zakresu: Data Quality, Data Lineage oraz Data Governance
Dlaczego miał(a)byś z nami pracować?
W Allegro zajmiesz się przetwarzaniem petabajtów danych i miliardów zdarzeń dziennie
Staniesz się uczestnikiem jednego z największych projektów budowania platformy danych w GCP
Twój rozwój będzie podążał za najnowszymi trendami technologicznymi opartymi o open source (data mesh, data streaming)
Będziesz miał(a) realny wpływ na kierunki rozwoju produktów i na wybór technologii. Korzystamy z najnowszych i najlepszych dostępnych technologii, ponieważ sami je dobieramy do naszych potrzeb
Będziesz mieć możliwość pracy w zespole doświadczonych inżynierów i specjalistów big data, którzy chętnie dzielą się swoją wiedzą, także publicznie w ramach allegro.tech
Raz do roku możesz skorzystać z możliwości pracy w innym zespole (tzw. turystyka zespołowa)
Ze swojej strony oferujemy:
Sprawdź sam/a, a oprócz tego m.in:
Nowoczesne biuro i narzędzia pracy
Nieformalną atmosferę pracy w profesjonalnym zespole
Bogaty pakiet świadczeń pozapłacowych w systemie kafeteryjnym – Ty decydujesz z czego korzystasz
Zajęcia angielskiego opłacane przez nas
Budżet szkoleniowy oraz wewnętrzna platforma MindUp
Ofertę kierujemy do osób, które:
Potrafią i lubią programować w językach: Java lub Scala
Mają doświadczenie w ekosystemie Big Data (Hadoop, Spark, Kafka, Airflow, Druid)
Dodatkowym atutem będzie znajomość GCP (Dataproc, Dataflow, BigQuery, Pubsub)
Stosują dobre praktyki (clean code, code review, TDD, CI/CD)
Sprawnie poruszają się w systemach z rodziny Unix/Linux
Interesują się zastosowaniem ML / AI
Mają pozytywne nastawienie i umiejętności pracy w zespole
Chcą się rozwijać i aktualizować swoją wiedzę
Wyślij nam swoje CV i sprawdź dlaczego #dobrzetubyć
Yearly based
Poznań, Warszawa, Kraków, Toruń, Wrocław, Gdańsk, Łódź, Poland