Czym będziesz się u nas zajmować?

  • będziesz projektować i implementować procesy przetwarzające duże i nieustrukturyzowane zbiory danych (Data Lake Architecture, Streaming Architecture);
  • wdrażać, optymalizować oraz testować nowoczesne rozwiązania DWH Big Data w chmurze Azure oraz w środowisku Continuous Delivery / Continuous Integration;
  • w przypadku istniejących systemów będziesz pracować również nad migrowaniem oraz poprawą wydajności działających procesów z platform on-prem na public cloud.

Poszukujemy właśnie Ciebie, jeśli:

  • zdobyłeś/aś już pierwsze doświadczenie w projektach z obszaru Cloud lub Big Data w zakresie przetwarzania oraz wizualizacji danych (w różnych fazach rozwoju systemów);
  • posiadasz przynajmniej teoretyczną znajomość chmury Azure w obszarze Storage, Compute (+Serverless), Networking oraz Devops;
  • posiadasz wiedzę teoretyczną na temat chmury Azure (np. z ogólnodostępnych kursów MS Learn);
  • znasz przynajmniej w stopniu podstawowym jedną lub więcej z następujących technologii: Data Lake Gen2, Event Hub, Data Factory, DataBricks, Azure DWH, API Azure, Azure Function, Power BI;
  • przynajmniej w stopniu podstawowym znasz jeden z języków programowania: Python/Scala/Java/bash;
  • dobrze posługujesz się językiem angielskim (mile widziana będzie znajomość języka niemieckiego).