Data Engineer (F/M/X) - CDI

Data Engineer (F/M/X) - CDI

This job is no longer open

Jellysmack est l’entreprise globale de la création de contenu sur les réseaux sociaux qui repère et fait évoluer les créateurs vidéo les plus talentueux du monde sur les différentes plateformes. Nous sommes une équipe optimiste qui va toujours plus loin, qui garde une attitude positive et qui voit les défis comme des opportunités. Nous recherchons des personnes qui font preuve de créativité, d'imagination et d'audace, qui sont source de changement et qui croient en l'importance du travail d'équipe.

Esprit d'équipe :

La croissance exponentielle de Jellysmack a été alimentée par une technologie unique construite autour de 4 produits visant à optimiser la création et la distribution de vidéos sur les réseaux sociaux.

Les outils sur lesquels nous travaillons sont construits sur mesure pour nos Jellysmackers: les utilisateurs étant au sein de l’entreprise, les échanges sont facilités et nous pouvons rapidement mettre en œuvre les meilleures idées.

Plus précisément, l'équipe Tech travaille sur les outils utilisés par nos équipes opérationnelles (Contenu, Growth hacking,...) pour déterminer les sujets qui buzzent, les aider dans la création de contenu, suivre les performances des vidéos, etc… en injectant dans chacun de ces produits une dose conséquente d’algorithmie, de statistiques et de machine / deep learning.

Grâce à nos squads, nous avons une culture très collaborative ! Passionnée de Tech, l’équipe dédie 2 vendredis après-midi par mois pour avancer sur des projets personnels. Prêt à nous rejoindre ?


Ta mission


Ton rôle sera crucial pour participer au renouvellement de notre architecture data.

L’équipe infra actuelle est composée de 5 Cloud Engineers, 5 Data Engineers et 1 Data Architecte sénior. Et nous recherchons de nouveaux acolytes pour nous challenger techniquement !


Stack technique

  • Langage : SQL, Python et Bash
  • Hébergement : AWS
  • Données : Redshift, Kinesis Stream, Kinesis Firehose, Aurora Mysql, ElasticSearch, ElasticCache-Redis, S3, Glue, Athena, etc.
  • Orchestration de jobs : Airflow
  • Environnement : On utilise Visual Code, mais c’est libre et sur l’OS que tu préfères ! (Vim anyone ?)
  • Automatisation: Terraform & Ansible
  • CI/CD : Gitlab

Ce dont tu seras responsable

  • Mettre en place des librairies Python facilitant le travail des Data Scientists,
  • Créer et optimiser des pipelines data complexes,
  • Monitorer la plateforme d’exécution des jobs data,
  • Refactorer du code,
  • Accompagner les data scientists au quotidien dans une démarche d'amélioration continue (code Python, méthodologie de travail, architecture des jobs, peer programming, code reviews...),
  • Améliorer les process et la stack technique data (exemples: mise en place d'un framework de calcul distribué; participation à la migration vers une solution full dockerisée pour l'exécution des jobs data...).


Quelques exemples de projets

- Mise en place d'un pipeline data Airflow (DAG) en rapport avec une nouvelle fonctionnalité d'un de nos produits,

- Construction d'un système de monitoring des performances de nos algorithmes,

- Développement d'une librairie permettant de mutualiser les requêtes SQL fréquemment exécutées par nos Data Scientists,

- Ajout dans Pilot (notre Python Data Job Framework) d'une feature permettant de charger/serialiser un modèle de Machine Learning depuis/vers un repository S3,

- Mise en place d'un travail de R&D sur la génération et le déploiement automatique de notre image Airflow sur nos environnements dev/preprod/prod, via un CI/CD.

This job is no longer open
Logos/outerjoin logo full

Outer Join is the premier job board for remote jobs in data science, analytics, and engineering.