✨ Offre d'Emploi : Data Engineer Senior ✨
Chez My Job Glasses, nous construisons des produits à impact pour aider chacun à faire les bons choix d’orientation et de carrière.
Dans ce cadre, nous lançons Immersion, un projet stratégique mené avec Mistral AI et Bpifrance, visant à créer une banque de vidéos intelligentes, enrichies et structurées grâce à l’IA.
Ce projet marque un changement d’échelle majeur pour la Data chez MJG : traitement de volumes importants de vidéos et d’audios, structuration de pipelines data robustes et scalables, et plus largement, mise à plat et fiabilisation de l’organisation data globale de l’entreprise.
Nous créons donc un poste de Data Engineer Senior, avec un double enjeu :
- Réussir le projet Immersion, en lien étroit avec nos partenaires (Deloitte, AWS).
- Structurer durablement l’infrastructure data de My Job Glasses, en collaboration avec le Data Analyst et les équipes produit & tech.
Rattaché(e) au CPTO, tu rejoins une équipe en construction, avec un rôle clé dans les choix d’architecture et la mise en œuvre opérationnelle.
Le poste est résolument hands-on, avec une vraie latitude pour proposer, structurer et faire évoluer l’existant.
🚀 Tes Principales Missions :
Concevoir et opérer les pipelines de données
- Data ingestion
- Collecter, extraire et ingérer des données depuis différentes sources (bases de données, APIs, logs, flux externes).
- Cas Immersion : récupération et ingestion de vidéos et d’audios.
- Data transformation
- Nettoyer, transformer et structurer les données brutes pour les rendre exploitables.
- Cas Immersion : découpage en chunks, transcription, analyse sémantique des segments.
- Data storage
- Concevoir et maintenir les solutions de stockage (data lake, data warehouse, bases de données).
- Cas Immersion : stockage S3 et alimentation d’un catalogue structuré de segments.
- Data modeling
- Définir et maintenir les modèles de données, schémas et dictionnaires de données à l’échelle de l’entreprise.
- Cas Immersion : définition du vocabulaire et des modèles data communs.
- Data pipeline development
- Construire des pipelines automatisés, monitorés et fiables pour assurer un traitement fluide des données.
- Cas Immersion : reprise et évolution des pipelines développés avec Deloitte.
Garantir la qualité, la sécurité et la performance
- Mettre en place des contrôles de qualité des données et des outils de monitoring.
- Assurer la sécurité des données et la conformité avec les exigences réglementaires (RGPD).
- Optimiser les pipelines et les systèmes de stockage en termes de performance, scalabilité et coûts.
Contribuer à la structuration de la Data chez MJG
- Évaluer et faire évoluer les pipelines existants sur les produits My Job Glasses.
- Travailler main dans la main avec le Data Analyst, les équipes Produit, Tech et Data Science.
- Partager tes bonnes pratiques, documenter et jouer un rôle de mentor auprès de profils plus juniors.
🛠️ Stack Technique :
- Langages : SQL (incontournable), Python / JavaScript / Shell
- ETL / Orchestration : dbt
- Bases de données : PostgreSQL, MongoDB
- Cloud : AWS, GCP ou Azure
- Data Warehouse / Data Lake : BigQuery, Snowflake (ou équivalent)
- Data Viz : PowerBI, Metabase (ou équivalent)
- Data modeling : ER Model, Snowflake
- Bonnes pratiques : ETL / ELT, monitoring, documentation, qualité des données