Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.

Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.

Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API  lub wizualizowane i przedstawiane w postaci zestawień i raportów.

W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.

Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.

Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (publiczna, finanse, logistyka, motoryzacja, telekomunikacja oraz innych).

Dołącz do nas! Serdecznie zapraszamy 😊

Twoje codzienne zadania:

  • doradztwo, koncepcja, realizacja i obsługa rozwiązań w środowisku Big Data i analizy,
  • organizacja zespołu programistów, udzielanie wskazówek oraz samodzielny udział we wdrożeniu,
  • asysta w roli technicznego i merytorycznego eksperta podczas projektowania doskonałych rozwiązań Big Data’owych,
  • praca z narzędziami takimi jak HDFS, HADOOP, nifi, Spark, Airflow, Kafka, HIVE, Atlas, Ranger Pod względem technologicznym w naszych rozwiązaniach opieramy się na produktach naszego strategicznego partnera Cloudera,
  • wsparcie działam testowych i akceptacyjnych w środowisku klienta.

Najczęściej używane technologie:

  • Cloudera 
  • Spark 
  • Kafka 
  • HIVE 
  • Nifi
  • Ansible 
  • Airflow 
  • HDFS 
  • Hadoop 
  • Atlas 
  • Ranger 

Nasze oczekiwania:

  • wykształcenie wyższe z dziedziny informatyki,
  • kilkuletnie doświadczenie projektowe lub / i konsultingowe,
  • wiedza techniczna z zakresu Cloudera lub takich narzędzi jak HDFS, Hadoop, nifi, Spark, Airflow, Kafka, HIVE, Atlas, Ranger, itp.,
  • udokumentowane doświadczenie w architekturze danych i tworzeniu oprogramowania w projektach opartych na danych,
  • dobra znajomość języka angielskiego, znajomość języka niemieckiego jest dodatkowym atutem.