Czym będziesz się u nas zajmować?

  • będziesz projektować i implementować procesy przetwarzające duże i nieustrukturyzowane zbiory danych (Data Lake Architecture, Streaming Architecture);
  • wdrażać, optymalizować oraz testować nowoczesne rozwiązania DWH / Big Data w chmurze Azure oraz w środowisku Continuous Delivery / Continuous Integration;
  • w przypadku istniejących systemów będziesz pracować również nad migrowaniem oraz poprawą wydajności działających procesów z platform on-prem na public cloud.

Poszukujemy właśnie Ciebie, jeśli:

  • masz doświadczenie w projektach z obszaru Cloud lub Big Data w zakresie przetwarzania oraz wizualizacji danych (w różnych fazach rozwoju systemów);
  • posiadasz praktyczną znajomość chmury Azure w obszarze Storage, Compute (+Serverless), Networking oraz Devops popartą pracą nad projektami komercyjnymi;
  • posiadasz wiedzę teoretyczną na temat chmury Azure (np. z ogólnodostępnych kursów MS Learn) popartą certyfikatami (np. DP-900, DP-200/201, AZ-204, AZ-400);
  • znasz przynajmniej kilka z następujących technologii: Data Lake Gen2, Event Hub, Data Factory, DataBricks, Azure DWH, API Azure, Azure Function, Power BI;
  • przynajmniej w stopniu podstawowym znasz jeden z języków programowania: Python/Scala/Java/bash;
  • dobrze posługujesz się językiem angielskim (mile widziana będzie znajomość języka niemieckiego).