Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.
Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.
Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API lub wizualizowane i przedstawiane w postaci zestawień i raportów.
W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.
Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing oraz Generative AI, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.
Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (finanse, logistyka, motoryzacja, telekomunikacja oraz innych).
Dołącz do nas! Serdecznie zapraszamy 😊
Twoje codzienne zadania:
- projektowanie i implementacja procesów przetwarzających duże i nieustrukturyzowane zbiory danych (Data Mesh, Data Lake lub Streaming Architecture);
- wdrażanie, optymalizacja oraz testowanie nowoczesnych rozwiązań DWH / Big Data w chmurze AWS oraz w środowisku Continuous Delivery / Continuous Integration;
- w przypadku istniejących systemów: poprawa wydajności procesów oraz ich migracja z platform on-prem na public cloud.
Najczęściej używane technologie:
AWS Cloud
Python/PySpark
Glue
Redshift
Snowflake
SQL
Terraform
Nasze oczekiwania:
- przynajmniej 3-letnie doświadczenie w projektach z obszaru Cloud lub Big Data w zakresie przetwarzania oraz wizualizacji danych (w różnych fazach rozwoju systemów);
- praktyczna znajomość chmury AWS w obszarze Storage, Compute (+Serverless), Networking oraz Devops poparta pracą nad projektami komercyjnymi;
- wiedza teoretyczna na temat chmury AWS poparta certyfikatami (np. DVA-C01, SAA-C02, SAP-C01, VDS-C01, DAS-C01);
- znajomość przynajmniej kilku z następujących technologii: Glue, Redshift, Lambda, Athena, S3, Snowflake, Docker, Terraform, CloudFormation, Kafka, Airflow, Spark;
- przynajmniej podstawowa znajomość jednego z języków programowania: Python/Scala/Java/bash;
- dobra znajomość języka angielskiego (mile widziana będzie znajomość języka niemieckiego).
Nasza oferta:
- umowa o pracę na czas nieokreślony od pierwszego dnia;
- hybrydowy, elastyczny model pracy;
- dofinansowanie do wyposażenia stanowiska pracy w domu;
- możliwości rozwoju, a wśród nich:
- szeroka oferta szkoleń wewnętrznych i zewnętrznych (technicznych, językowych, liderskich),
- wsparcie w certyfikacji w różnych obszarach,
- mentoring i realny wpływ na kształtowanie Twojej ścieżki kariery,
- dostęp do bazy ponad 2000 szkoleń na platformach Pluralsight, Coursera, Harvard,
- wewnętrzne communities (m.in. Agile, IoT, Digital, Security, Women@Capgemini),
- uczestnictwo w konferencjach zarówno w roli słuchacza jak i eksperta,
- możliwość uzyskania podwyższonych kosztów uzyskania przychodu w przypadku pracy twórczej;
- benefity w ramach pakietu socjalnego (m.in. dofinansowanie do karty Multisport, opieka medyczna dla całej rodziny, ubezpieczenie grupowe na preferencyjnych warunkach, kafeteria).