Czym będziesz się u nas zajmować?

  • będziesz realizować projekty z wykorzystaniem nowoczesnych technologii i narzędzi Big Data i/lub Cloud (m in. streaming, cloud, clustered computing, real-time processing, advanced analytics);
  • projektować i implementować procesy przetwarzające duże i nieustrukturyzowane zbiory danych (noSQL, Data Lake Architecture);
  • wdrażać, optymalizować oraz testować nowoczesne rozwiązania Big Data, również w chmurze oraz w środowisku Continuous Delivery / Continuous Integration;
  • w przypadku istniejących systemów będziesz pracować również nad migracją oraz poprawą wydajności działających procesów.

Poszukujemy właśnie Ciebie, jeśli:

  • posiadasz doświadczenie w projektach z obszaru Big Data i/lub Cloud w zakresie przetwarzania dużych i nieustrukturyzowanych zbiorów danych (w różnych fazach rozwoju systemów);
  • znasz jedną lub więcej z następujących technologii: Cloudera, Hadoop, Hbase, Spark, Hive, Oozie, Talend, YARN (znajomość Kafki, Cassandry i/lub podobnych będzie dodatkowym atutem);
  • programujesz w językach Scala, Java lub Python;
  • znasz dobrze przynajmniej jeden (nie)relacyjny system bazodanowy oraz język (no)SQL;
  • posiadasz doświadczenie w pracy z narzędziami do przetwarzania danych w chmurze (AWS, Azure lub GCP) lub jesteś chętny/a do ich nauki;
  • bardzo dobrze posługujesz się językiem angielskim (gotowość do nauki języka niemieckiego będzie dodatkowym atutem).