Opis działu/projektu:

Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.

Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.

Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API  lub wizualizowane i przedstawiane w postaci zestawień i raportów.

W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.

Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.

Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (finanse, logistyka, motoryzacja, telekomunikacja oraz innych).

Dołącz do nas! Serdecznie zapraszamy 😊

Twoje codzienne zadania:

  • tworzenie architektury systemów przetwarzających duże i nieustrukturyzowane zbiory danych (Data Lake Architecture, Streaming Architecture);
  • projektowanie nowoczesnych rozwiązań DWH Big Data w chmurze oraz w środowisku Continuous Delivery / Continuous Integration;
  • projektowanie modeli danych oraz dokumentowanie przepływu danych w systemie;
  • współpraca z Zespołem w roli Lidera Technicznego, zapewnianie zgodności systemu z obowiązującymi standardami oraz najlpeszymi praktykami w zakresie wytwarzania oprgramowania.

Najczęściej używane technologie:

  • Cloud Data Services: AWS / Azure / GCP
  • Databases: SQL / NoSQL
  • Programming: Python/Scala/Java
  • Cloud DWH: Snowflake / Redshift / Synapse

Nasze oczekiwania:

  • doświadczenie w roli Architekta i/lub Lidera Technicznegow projektach z obszaru Cloud lub Big Data w zakresie przetwarzania oraz wizualizacji danych (w różnych fazach rozwoju systemów);
  • praktyczna znajomość jednej z chmur: AWS, Azure, GCPw obszarze Storage, Compute (+Serverless), Networking oraz Devops popartą pracą nad projektami komercyjnymi;
  • znajomość przynajmniej kilku z następujących technologii:  Cloud Dataflow, BigQuery, Cloud Dataproc, Cloud KMS, Pub/Sub, Google Kubernetes Engine,  Apache Beam, Kafka, Spark, Snowflake, Data Lake Gen2, Event Hub, Data Factory, DataBricks, Azure DWH, Azure Function, Power BI, Terrform, Redshift, Glue, Athena, Kinesis, Lambda;
  • znajomość jednego z języków programowania: Python/Scala/Java/bash;
  • dobra znajmość języka angielskiego (mile widziana będzie znajomość języka niemieckiego).