Czym będziesz się u nas zajmować?

  • Projektowaniem rozwiązań na podstawie wymagań funkcjonalnych i techniczych;
  • wdrażaniem skalowalnych i wydajnych rozwiązań do przetwarzania danych przy użyciu Spark i Scala;
  • projektowaniem i wdrażaniem oprogramowania do przetwarzania dużych i nieustrukturyzowanych zbiorów danych (noSQL, Data Lake Architecture);
  • optymalizowaniem i testowaniem nowoczesnych rozwiązanń Big Data, także w Cloud i środowisku Continuous Delivery / Continuous Integration.

Poszukujemy właśnie Ciebie, jeśli:

  • posiadasz doświadczenie komercyjne w pracy nad projektami Data Engineering, Big Data i/lub Cloud z wykorzystaniem Apache Spark i Scala;
  • znasz dobrze przynajmniej jeden (nie)relacyjny system baz danych i język SQL;
  • znasz co najmniej jedną z wymienionych (lub podobnych) technologii i narzędzi: Oozie, Hive, Hadoop, Sqoop, Kafka, Flume, Hbase;
  • swobodnie komunikujesz się w języku angielskim.