wave-hero

Data Engineer (with Scala)

icon-location

Poznań, Wrocław

Flaga Wielkiej Brytanii
Aplikuj teraz

Opis działu:

Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych. 

 

Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP. 

 

Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API  lub wizualizowane i przedstawiane w postaci zestawień i raportów. 

 

W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision. 

 

Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów. 

 

Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (finanse, logistyka, motoryzacja, telekomunikacja oraz innych). 

 

Dołącz do nas! Serdecznie zapraszamy!

Twoje codzienne zadania:

  • Projektowanie rozwiązań na podstawie wymagań funkcjonalnych i technicznych;
  • wdrażanie skalowalnych i wydajnych rozwiązań do przetwarzania danych przy użyciu Spark i Scala;
  • projektowanie i wdrażanie oprogramowania do przetwarzania dużych i nieustrukturyzowanych zbiorów danych (noSQL, Data Lake Architecture);
  • optymalizacja i testowanie nowoczesnych rozwiązań Big Data, także w Cloud i środowisku Continuous Delivery / Continuous Integration.

Najczęściej używane technologie:

Spark

star-icon-fill star-icon-fill star-icon-fill star-icon-fill star-icon-fill

Scala

star-icon-fill star-icon-fill star-icon-fill star-icon-fill star-icon-fill

AWS/Azure/GCP

star-icon-fill star-icon-fill star-icon-fill star-icon-fill star-icon-empty

Python

star-icon-fill star-icon-fill star-icon-fill star-icon-empty star-icon-empty

SQL

star-icon-fill star-icon-fill star-icon-fill star-icon-empty star-icon-empty

Nasze oczekiwania

  • 3-letnie doświadczenie komercyjne w pracy nad projektami Data Engineering, Big Data i/lub Cloud z wykorzystaniem Apache Spark i Scala;
  • dobra znajomość przynajmniej jednego (nie)relacyjnego systemu baz danych i język SQL;
  • znajomość co najmniej jednej z wymienionych (lub podobnych) technologii i narzędzi: Oozie, Hive, Hadoop, Sqoop, Kafka, Flume, Hbase;
  • bardzo dobra znajomość języka angielskiego (chęć do nauki języka niemieckiego będzie dodatkowym atutem).

Nasza oferta:

  • Umowa o pracę na czas nieokreślony od pierwszego dnia;
  • hybrydowy, elastyczny model pracy;
  • dofinansowanie do wyposażenia stanowiska pracy w domu;
  • możliwości rozwoju, a wśród nich:
    • szeroka oferta szkoleń wewnętrznych i zewnętrznych (technicznych, językowych, liderskich),
    • wsparcie w certyfikacji w różnych obszarach,
    • mentoring i realny wpływ na kształtowanie Twojej ścieżki kariery,
    • dostęp do bazy ponad 2000 szkoleń na platformach Pluralsight, Coursera, Harvard,
    • wewnętrzne communities (m.in. Agile, IoT, Digital, Security, Women@Capgemini),
    • uczestnictwo w konferencjach zarówno w roli słuchacza jak i eksperta,
  • możliwość uzyskania podwyższonych kosztów uzyskania przychodu w przypadku pracy twórczej;
  • benefity w ramach pakietu socjalnego (m.in. karta Multisport, opieka medyczna dla całej rodziny, ubezpieczenie grupowe na preferencyjnych warunkach, kafeteria).

 

 

Poznaj wszystkie nasze benefity!

Masz pytania? Skontaktuj się z nami!

contact-person-image

Aniela Kicała

Recruitment Specialist

wave