Czym będziesz się u nas zajmować?

  • będziesz wdrażał rozwiązania do przetwarzania danych z wykorzystaniem nowoczesnych technologii i narzędzi Big Data lub/i Cloud (m.in. streaming, cloud, clustered computing, real-time processing, advanced analytics);
  • będziesz projektować i wdrażać aplikacje PySpark w oparciu o środowisko Cloudera (dawne rozwiązanie Apache Hadoop);
  • będziesz optymalizować i testować nowoczesne rozwiązania Big Data, również w chmurze i środowisku Continuous Delivery / Continuous Integration.

Poszukujemy właśnie Ciebie, jeśli:

  • posiadasz wykształcenie wyższe z dziedziny informatyki;
  • masz komercyjne doświadczenie w pracy w projektach w środowisku Data Engineering, Big Data i/lub Cloud z wykorzystaniem Apache Spark;
  • potrafisz kodować w języku Python lub Scala;
  • znasz dobrze co najmniej jedno rozwiązanie (nie)relacyjnej bazy danych i język (non)SQL;
  • znasz dobrze język angielski, znajomość języka niemieckiego jest dodatkowym atutem.