
En tant que Consultant Data Engineer, ta mission principale sera d'aider les clients à valoriser leurs données en utilisant les technologies les plus innovantes. Tu interviendras à toutes les étapes du processus d'aide à la décision, de l'acquisition à la restitution des données.
Les réalisations attendues dans ce rôle incluent :
Design d'une plateforme Azure Cloud : Tu seras impliqué dans la conception d'une plateforme basée sur Azure Cloud, où tu mettras en place des pipelines d'ingestion et d'exposition de données. L'objectif sera de fournir des données métiers actualisées toutes les 30 minutes.
Bonnes pratiques et initialisation du Datalab : Tu participeras à la mise en place des bonnes pratiques et à l'initialisation d'un Datalab pour un grand groupe d'assurance. Tu accompagneras également l'industrialisation des algorithmes pour les cas d'utilisation métiers.
Traitements d'ingestion et préparation des datasets : Tu seras responsable de l'ensemble des traitements d'ingestion et de préparation des datasets. Cela permettra d'alimenter des tableaux de bord de surveillance de l'activité digitale mondiale d'un grand groupe cosmétique. L'objectif sera de mesurer l'empreinte des marques sur les médias et les réseaux sociaux.
Création et exploitation d'une Data Factory : Tu apporteras ton expertise pour accompagner la création et l'exploitation d'une Data Factory pour un grand groupe de distribution. L'objectif sera de traiter l'ensemble des données et de mettre à disposition des données qualifiées pour les différents cas d'utilisation métiers.Environnement de travail :
Selon tes missions et réalisations de projet, tu travailleras au sein d'équipes composées de Data Engineers, Data Scientists et Data Architects. Ces équipes seront organisées en mode agile. Tes activités s'appuieront sur les méthodes et les savoir-faire de l'entreprise, ainsi que sur son catalogue d'outils et de technologies.
Compétences requises :
- Bonnes connaissances en architectures de données et en environnement cloud, en particulier Azure (Data Factory, Synapse, ADLS, Databricks) et Google GCP (BigQuery, Composer, Data Studio).
- Maîtrise de SQL et Python.
- Expérience avec Spark et PySpark.
- Familiarité avec Airflow, Kafka, Jenkins.
- Solides connaissances des processus collaboratifs et des outils de développement tels que DevOps, Git et CI/CD.
Compétences supplémentaires appréciées :
- Connaissances d'OpenShift, Docker, Kubernetes.
- Expérience en visualisation de données.
- Connaissances de bases NoSQL.
- Certification Data Engineer (par exemple, Azure Data Engineer, Google Professional Data Engineer ou Snowflake SnowPro).
Profil recherché :
- Formation supérieure (Bac +5 minimum) en ingénierie ou équivalent.
- Expérience professionnelle d'au moins 3 à 4 ans dans le domaine du Big Data.
- Réussite de plusieurs projets Big Data avec des références significatives dans la mise en place de flux de données et de traitement de l'information.
- Capacité à travailler de manière autonome sur des projets et expérience préalable en encadrement technique.
- Motivation pour rejoindre une structure alliant l'exigence d'un cabinet de conseil et la dynamique et l'agilité d'une start-up.
- Excellentes compétences en communication, esprit d'initiative, intérêt marqué pour les nouvelles technologies et capacité de synthèse.
- Sens du service client et aptitude à l'écoute, afin de s'intégrer parfaitement dans la culture du cabinet de conseil.
- Maîtrise de l'anglais à l'écrit et à l'oral indispensable.