Opis działu/projektu:

Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.

Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.

Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API  lub wizualizowane i przedstawiane w postaci zestawień i raportów.

W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.

Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.

Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (finanse, logistyka, motoryzacja, telekomunikacja oraz innych).

Dołącz do nas! Serdecznie zapraszamy 😊

Twoje codzienne zadania:

  • projektowanie i implementacja procesów przetwarzających duże i nieustrukturyzowane zbiory danych (Data Lake Architecture, Streaming Architecture);
  • wdrażanie, optymalizacja oraz testowanie nowoczesnych rozwiązań DWH / Big Data w chmurze Azure oraz w środowisku Continuous Delivery / Continuous Integration.
  • w przypadku istniejących systemów: poprawa wydajności procesów oraz ich migracja z platform on-prem na public cloud.

Najczęściej używane technologie:

  • Azure Databricks 
  • Python/PySpark 
  • Azure Data Factory
  • SQL
  • Azure DevOps

Nasze oczekiwania:

  • przynajmniej 3-letnie doświadczenie w projektach z obszaru Cloud lub Big Data w zakresie przetwarzania oraz wizualizacji danych (w różnych fazach rozwoju systemów);
  • praktyczna znajomość chmury Azure w obszarze Storage, Compute (+Serverless), Networking oraz Devops poparta pracą nad projektami komercyjnymi;
  • wiedza teoretyczna na temat chmury Azure (np. z ogólnodostępnych kursów MS Learn) poparta certyfikatami (np. DP-900, DP-200/201/203, AZ-204, AZ-400);
  • znajomość przynajmniej kilku z następujących technologii: Data Lake Gen2, Event Hub, Data Factory, DataBricks, Azure DWH, API Azure, Azure Function, Power BI;
  • przynajmniej w podstawowa znajomość jednego z języków programowania: Python/Scala/Java/bash.
  • dobra znajomość języka angielskiego (mile widziana będzie znajomość języka niemieckiego).