webleads-tracker

Data Engineer - H/F - Dalenys Jobs

L'entreprise

Dalenys is a payment solution designed for unified commerce that puts customer experience and loyalty first.

Dalenys has developed a platform capable of connecting a merchant’s entire ecosystem, including sales channels, distribution networks, data and technological partners. Our customers benefit from 360° payment expertise, as well as A-Z support from a team of Customer Success Managers dedicated to optimising your performance.

Dalenys is an affiliate from Natixis Payments, the leading Visa issuer in continental Europe and a subsidiary of Groupe BPCE, 2nd banking group in France.

Description de l'offre

Le Tech Lab de Dalenys se renforce ! Nous recherchons un Data Engineer pour renforcer nos équipes dans la construction de notre nouveau Datalake. Celui-ci remplacera à terme intégralement notre système existant.

Vous intégrez la Squad dédiée à la Data sous la direction du Head of Data, axée sur le développement d’outils et d’architectures adéquats à l’analyse de la donnée par les équipes Métiers, Supports et de Data Science.

Au-delà de Dalenys, vous travaillerez en collaboration avec d’autres équipes Data de la Business Unit dans l’optique d’unifier notre approche Data au sein des différentes Fintech de Natixis.

Le secteur d’activité de la monétique implique que vous évoluerez dans un contexte fortement challengeant d’un point de vue sécurité (certification PCI-DSS) mais également de haute disponibilité.

VOS MISSIONS

● Participer à l’enrichissement et la maintenance du nouveau Datalake GCP (Datawarehouse BigQuery)

● Ajout de nouvelles sources de données (évènementielles, MongoDB, sources externes (API, ftp)

● Développer les pipelines de données : extraction, ingestion, transformation, agrégation, nettoyage…

● Accompagner les équipes développement dans leur utilisation des bases de données : modélisation, indexation, requêtes complexes

● Aider les équipes métier à modéliser leur schéma de données

● Maintien de l’infrastructure existante

● Assurer le niveau de performance du traitement des données en fonction des besoins et leur intégrité

● Capitaliser sur les chaînes de traitement et apporter une vision « générique », transposable et scalable

● Documentation : chaînes de traitement, l’infrastructure, catalogue de données

● Mise à disposition des données à des fins de Machine Learning

Stack technique

Data : GCP (GCP, BigQuery, Cloud Composer, Cloud Data Proc, Cloud PubSub)

BI: Tableau

Infrastructure générale : Google Cloud Platform

Docker & orchestration générale : Kubernetes

Code et CI/CD plateforme : gitlab & gitlab-CI

Database plateforme: Big Query, MongoDB, MySQL, Vertica

Message-broking : RabbitMQ

Profil requis

Vous avez des connaissances pointues sur les outils types ETL/ELT (AirFlow)

Vous maitrisez le langage Python et les systèmes de base de données xSQL ou orienté document.

Vous avez de l’expérience avec le production-grade code (design pattern, test unitaire et d’intégration, CI/CD, …)

Vous avez déjà travaillé sur du Cloud, de préférence GCP

Des connaissances en Scala, RabbitMQ, Gitlab, Docker sont un plus

Vous êtes pragmatique, prêt à travailler en équipe agile dans un environnement vivant

Vous savez lire, écrire mais aussi parler suffisamment en anglais pour travailler avec des collègues anglophones.

  • Share this article

  • FacebookTwitterLinkedIn

Apply for this offer