Aux études, à la conception et à l'implémentation des projets
A l'intégration de nouveaux flux en mode batch ou streaming
A la configuration et optimisation des programmes applicatifs
A la configuration des outils de restitution, gestion des habilitations, gestion de la sécurité…
A la mise en place de POC sur de nouveaux outils
A la mise en œuvre des actions correctives à court et moyen terme
A la rédaction de dossier d'implémentation, restitution à la communauté des intégrateurs
A assurer le RUN des projets passés en production : résolution des incidents niveau 2 et 3, diagnostique et remise en service dans les meilleurs délais
Profil requis :
De formation supérieure (de type BAC+5 en informatique, École d'ingénieur ou équivalent universitaire Master) vous bénéficiez déjà de solides connaissances techniques (3 à 5 ans) dans un des domaines cités :
Big Data / Data engineerie particulièrement en environnement Cloud (Azure, AWS, GCP, IBM Cloud…)
Analyse prédictive / Machine Learning/ Deep Learning, Computer vision
Passionné(e) de data, vous savez vous montrer force de proposition et partagez avec votre équipe
Capacités rédactionnelles pour aider à la mise en place des spécification techniques, la rédaction des dossiers d'implémentation…
Vous justifiez d'une première expérience significative d'au moins 2 ans dans le cadre de projets Big Data sur une plateforme Hadoop.
Vous êtes curieux(se), avec un bon esprit d'analyse et de synthèse
You're fluent in English !
Vous disposez des compétences techniques suivantes :
Maîtrise du framework Spark et de ses composants : Spark Core, Spark SQL, Spark Streaming (Spark ML et Graph sont un plus)
Langage de développement : Java, Scala, Python, C#, JS et GO, dans des environnements sécurisés avec des outils comme Kerberos.
Utilisation et/ou mise en place d'outils d'intégration en continue comme Jenkins, Nexus, Ansible…
Maîtrise des bases de données NoSQL tels que Cassandra, MongoDB…