Data Engineer

Advalo recrute !

À propos

Advalo est une société en hyper-croissance créée en 2014 avec pour mission d'accompagner les enseignes dans leur transformation d'un marketing de masse polluant et intrusif vers un marketing individualisé, fondé sur la connaissance et le respect des envies de chaque client. Pour cela, nous avons développé une plateforme saas innovante permettant aux enseignes du retail et de l'automobile de comprendre et accompagner chaque consommateur de façon individualisée tout au long de son parcours client.

Nos clients sont des enseignes majeures, parmi lesquelles CacheCache, But, Seat, Morgan et Devred, avec qui nous aimons entretenir une relation de proximité.

Afin d'accélérer notre développement en France et à l'international, nous avons levé 5m€ en 2017, avec un objectif: devenir la plateforme leader permettant de construire une relation organique, unique et durable entre une marque et un individu, grâce aux possibilités infinies de l'IA.

Basé à Rennes, Paris et prochainement aux Etats-Unis, nous avons une équipe formidable, un environnement unique et des valeurs fortes, une atmosphère détendue, des opportunités de carrière multiples, une culture et un projet excitants !

Descriptif du poste

La plateforme d'Advalo collecte et exploite des milliards de données en temps réel sur des infrastructures distribuées, afin de permettre la mise en place de systèmes prédictifs. En tant que Data Engineer, ton rôle sera de concevoir et développer de nouvelles architectures de données au sein d'une équipe talentueuse et passionnée, composée de développeurs et datascientists.
Ces nouvelles architectures de données seront ensuite utilisées notamment par les modèles d'intelligence artificielle afin de pouvoir apporter des nouvelles possibilités pour les clients.

Au quotidien tu seras amené(e) à :

  • Implémenter des workflows complexes d'acquisition et d'analyse de la donnée pour faire émerger des possibilités métiers encore inexploitées
  • Concevoir des architectures efficaces pour stocker et analyser des terabytes de données
  • Participer à la mise en place ainsi qu'à l'enrichissement de datalakes basés sur l'écosystème Hadoop.
  • Penser à des modèles de données intelligents pour servir les fonctionnalités du produit, tout en minimisant les coûts
  • Développer des outils pour aider les data-scientists à travailler avec les données disponibles … en utilisant des techno open source Kubernetes, Akka, Kafka, Spark, Hadoop, Nosql

Profil recherché

  • Formation ingénieur/master en informatique
  • Expériences pertinentes (idéalement au moins 3 ans dans un environnement similaire)
  • Maîtrise d'au moins un langage backend (java/scala/python)
  • Pratique de la programmation fonctionnelle, envie de monter en compétence sur Scala
  • Bonne connaissance de SQL
  • (Bonus) expérience sur Apache Spark
  • (Bonus) expérience avec un framework de workflow de données (e.g. Airflow, Luigi, ...)
  • (Bonus) experience sur du stream-processing (e.g. Storm, Spark streaming, ...)
  • Bon niveau d'anglais
  • Organisation de travail structurée, capacité à s'approprier et agir sur les projets
  • Aptitude à influencer et accompagner la résolution de situations avec des équipes cross-fonctionnelles
  • Participation active à des meetups, volonté de t'inscrire dans le développement de l'écosystème local

Informations complémentaires

  • Type de contrat : CDI
  • Lieu : Rennes, France (35000)
  • Niveau d'études : Bac +5 / Master
  • Expérience : > 3 ans