Opis działu/projektu:

Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.

Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.

Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API  lub wizualizowane i przedstawiane w postaci zestawień i raportów.

W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.

Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.

Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (finanse, logistyka, motoryzacja, telekomunikacja oraz innych).

Dołącz do nas! Serdecznie zapraszamy 😊

Twoje codzienne zadania:

  • zbieranie wymagań oraz proponowanie rozwiązań technicznych we współpracy z Klientem;
  • implementacja i optymalizacja procesów ETL w hurtowniach danych (disk-based oraz in-memory processing);
  • projektowanie fizycznego i logicznego modelu danych w oparciu o schematy gwiazdy i płatka śniegu oraz kostki OLAP;
  • automatyzować testy oraz deployment kodu z wykorzystaniem najlepszych praktyk z obszaru DevOps, CI/CD.

Najczęściej używane technologie:

  • ETL tools e.g. Informatica, SSIS, DataStage, ODI, Talend 
  • SQL 
  • Data Visualization tools e.g. Power BI, Tableau, QlikSense 
  • Python
  • Cloud Data Services: Azure / AWS / GCP

Nasze oczekiwania:

  • 3-letnie doświadczenie w projektach z obszaru hurtowni danych (DWH) oraz Business Intelligence (w różnych fazach rozwoju systemów) z wykorzystaniem narzędzi ETL ( Informatica PowerCenter, Talend, IBM InfoSphere DataStage, Ab Initio) i języka SQL;
  • dobra znajomość przynajmniej jednego relacyjnego systemu bazodanowego (np. Oracle, Teradata, MS SQL Server lub PostgreSQL);
  • znajomość jednego lub więcej z wymienionych (lub podobnych) narzędzi i technologii: IBM Cognos, SAP Business Objects, Microsoft Power BI, Tableau, QlikView, OBIEE;
  • znajomość dobrych praktyk z zakresu inżynierii oprogramowania;
  • przynajmniej podstawowa znajomość jednego z języków programowania: Python/Scala/Java/bash;
  • dobra znajomość języka angielskiego lub niemieckiego.