➡️ Développer et optimiser des pipelines de données en Spark, PySpark ou Scala
➡️ Créer des flux de données efficaces pour le traitement et l’analyse d’une grosse volumétrie de données
➡️ Gérer des solutions de données sur des plateformes telles que AWS et Azure
➡️ Participer aux tests unitaires et fonctionnels
➡️ Utiliser des services cloud pour le stockage, le traitement et l’analyse des données à grande échelle
➡️ Concevoir et maintenir les bases de données (SQL)
➡️ Évoluer dans un environnement AGILE (Scrum ou Safe)
➡️ Participer activement au processus d’amélioration continue de la chaine de production technologique
➡️ Faire de la veille technique et être force de proposition.
✔️ Tu as 3 ans d'expérience minimum sur une fonction similaire (hors alternance et stage)
✔️ Tu maitrises le développementen Python, PySpark ou Scala
✔️Tu as une expérience dans un environnement cloud AWS et/ou Azure et/ou GCP
✔️ Tu as un bon niveau d’anglais et tu as l’habitude de travailler en mode Agile
✔️ Tu as une solide connaissance des bases de données
✔️ Tu es bon communicant et tu as un très bon relationnel
👉 Intégrer notre communauté d'experts techniques, dans laquelle tu pourras apprendre et être force de proposition pour l'amélioration continue de l'application.
👉 Bénéficier d’une formation sur mesure adaptée à ton profil
👉 Un système de prime de cooptation qui n’existe nulle part ailleurs
👉 9 à 12 RTT par an
👉 Primes vacances
👉 Mutuelle prise en charge à 100%
👉 Frais mobilité de 4 euros par jour travaillé
⚫ Un premier échange pour faire connaissance ☎
⚫ Un entretien RH avec Malika ou Margaux 🦸 Houlala, les choses sérieuses commencent !
⚫ Un échange technique suivi d'un entretien de direction 🦸
⚫ Une proposition d'embauche 💰