Opis działu/projektu:

Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.

Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.

Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API  lub wizualizowane i przedstawiane w postaci zestawień i raportów.

W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.

Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.

Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (finanse, logistyka, motoryzacja, telekomunikacja oraz innych).

Dołącz do nas! Serdecznie zapraszamy 😊

Twoje codzienne zadania:

  • realizacja projektów w języku Python ze szczególnym naciskiem na środowiska typu Cloud;
  • konsulting i techniczny prowadzenie zespołów w projektach z językiem Python;
  • współuczestnictwo w budowaniu centrum kompetencji w technologiach Python;
  • budowanie i nadzorowanie wewnętrznego programu rozwojowo-szkoleniowego dla technologii Python i powiązanych, jak również prowadzenie warsztatów i mentoring.

Najczęściej używane technologie:

  • Python
  • Cloud Services: AWS / Azure / GCP
  • SQL
  • PySpark

Nasze oczekiwania:

  • przynajmniej 7-letnie doświadczenie w tworzeniu wysokiej jakości kodu;
  • bardzo dobra znajomość języka Python i jego bibliotek, poparta doświadczeniem w testowaniu, aplikacjach webowych, DevOps, przetwarzaniu czy eksploracji danych;
  • znajomość relacyjnych baz danych oraz koncepcji Data Warehousing, Data Lake i DevOps;
  • bardzo dobra znajomość języka angielskiego (mile widziana znajomość języka niemieckiego);
  • otwartość na poznawanie nowych technologii
  • dobre umiejętności organizacji własnej pracy, samodzielność, chęć do przekazywania wiedzy.