webleads-tracker

Data Engineer - Dalenys Jobs

L'entreprise

Dalenys is a payment solution designed for unified commerce that puts customer experience and loyalty first.

Dalenys has developed a platform capable of connecting a merchant’s entire ecosystem, including sales channels, distribution networks, data and technological partners. Our customers benefit from 360° payment expertise, as well as A-Z support from a team of Customer Success Managers dedicated to optimising your performance.

Dalenys is an affiliate from Natixis Payments, the leading Visa issuer in continental Europe and a subsidiary of Groupe BPCE, 2nd banking group in France.

Description de l'offre

Le Tech Lab de Dalenys se renforce! Nous recherchons un Data Engineer pour renforcer nos équipes dans la construction de notre nouvelle plateforme basée sur une architecture micro service. Celle-ci remplacera à terme intégralement notre système existant.

Vous intégrez une Squad Agile, axée sur le développement d’outils et d’architectures adéquats à l’analyse de la donnée par les équipes Métiers, Supports et de Data Science.

Notre Tech Lab a entrepris depuis un an une évolution vers l’agilité à l’échelle (Safe) et depuis quelques mois une transformation technique vers une nouvelle une plateforme micro service orienté API/SaaS.

Le secteur d’activité de la monétique implique que vous évoluerez dans un contexte fortement challengeant d’un point de vu sécurité (certification PCI-DSS) mais également de haute disponibilité :

  • Participer à la migration du Data Warehouse existant dans le Cloud (passage à Big Query)
  • Ajout de nouvelles sources de données (évènementielles, MongoDB…)
  • Réaliser la mise en œuvre des traitements des données (data pipelines) des différents projets
  • Proposer des architectures data adaptées aux besoins de différents projets
  • Maintien de l’infrastructure existante
  • Assurer le niveau de performance du traitement des données en fonction des besoins et leur intégrité
  • Capitaliser sur les chaines de traitement et apporter une vision « générique », transposable et scalable
  • Documenter les chaines de traitement
  • Mise à disposition des données à des fins de Machine Learning
  • Exposer les données sous forme d’interfaces pour l’outil d’analyse (Tableau)

 

STACK TECHNIQUE

  • BI : Pentaho ETL, Tableau
  • Backend : Java (Spring Boot)
  • Frontend : ReactJS (material.ui), HTML/CSS
  • Infrastructure : Google Cloud Platform
  • Docker & orchestration : Kubernetes
  • Code and CI/CD : gitlab & gitlab-CI
  • Database : Big Query, MongoDB, MySQL, Vertica
  • Message-broking : RabbitMQ

Profil requis

Issu(e) d’une formation Bac+5, vous avez acquis une expérience dans le traitement de la donnée et l’utilisation d’ETL comme Talend ou Pentaho.

Vous avez une très bonne maîtrise de MySQL et Big Query.

Vous êtes reconnu(e) pour votre rigueur, votre autonomie et vos compétences techniques.

  • Share this article

  • FacebookTwitterLinkedIn

Apply for this offer