Opis działu/projektu:

Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.

Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.

Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API  lub wizualizowane i przedstawiane w postaci zestawień i raportów.

W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.

Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.

Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (finanse, logistyka, motoryzacja, telekomunikacja oraz innych).

Dołącz do nas! Serdecznie zapraszamy 😊

Twoje codzienne zadania:

  • projektowanie, implementacja i testowanie rozwiązań do przetwarzania danych w chmurze z wykorzystaniem technologii Snowflake;
  • Tworzenie, monitorowanie i optymalizacja procesów ETL/ELT;
  • migrowanie rozwiązań z platform on-premise na public cloud.

Najczęściej używane technologie:

  • Snowflake
  • SQL
  • Python
  • Cloud Data Services: Azure / AWS / GCP

Nasze oczekiwania:

  • co najmniej 3-letnie komercyjne doświadczenie w pracy ze Snowflake;
  • bardzo dobra znajomość języka SQL oraz koncepcji związanych z hurtowniami danych;
  • przynajmniej teoretyczna znajomość jednej z technologii Cloud: AWS, Azure lub GCP;
  • dobra znajomość się języka angielskiego lub/i niemieckim;
  • mile widziana będzie znajomość Apache Airflow i języka Python.