Vos nouveaux défis
Dans le cadre de notre développement au sein du collectif d’expertise .LOUD Technology, nous recherchons un profil Data Engineer confirmé ou senior pour concevoir et déployer des architectures data modernes au service des besoins analytiques et IA de nos clients.
Missions principales
- Concevoir, développer et maintenir des pipelines de données robustes et scalables.
- Mettre en place des architectures Data Lakehouse sur les plateformes cloud (AWS, GCP, Azure).
- Développer des transformations de données avec Spark, dbt et les outils modernes de la stack data.
- Orchestrer les workflows de données avec Airflow, Dagster ou Prefect.
- Garantir la qualité, la fiabilité et la traçabilité des données (data quality, lineage).
- Optimiser les performances des traitements et les coûts d’infrastructure.
- Collaborer avec les Data Scientists et Data Analysts pour comprendre leurs besoins.
- Participer à la définition des standards et bonnes pratiques data de l’équipe.
- Accompagner nos clients dans leur transformation data et la modernisation de leurs architectures.
Votre profil
- Diplômé(e) en informatique ou data engineering, vous disposez d’au moins 3 ans d’expérience en ingénierie des données.
- Excellente maîtrise de Python et SQL pour le traitement de données.
- Solide expérience avec Apache Spark (PySpark, Spark SQL).
- Maîtrise d’au moins un orchestrateur (Airflow, Dagster, Prefect).
- Bonne connaissance d’au moins une plateforme cloud (AWS, GCP, Azure) et de ses services data.
- Expérience avec les outils de transformation (dbt) et les formats modernes (Parquet, Delta Lake, Iceberg).
- Une maîtrise de l’anglais (B2-C1) est souhaitée pour le travail avec l’ensemble de nos clients.
- Apprécié : Certification cloud data (AWS Data Analytics, GCP Data Engineer, Azure Data Engineer).
- Apprécié : Expérience avec Kafka, Kinesis ou autres technologies de streaming.
- Apprécié : Connaissance des outils de data quality (Great Expectations, Soda).
Types de projets
- Conception et déploiement d’architectures Data Lakehouse sur le cloud.
- Création de pipelines ETL/ELT pour l’alimentation de data warehouses.
- Migration de données depuis des systèmes legacy vers des plateformes modernes.
- Mise en place de plateformes de données temps réel (streaming).
- Développement de data products pour des cas d’usage analytiques et IA.
- Optimisation des coûts et des performances des infrastructures data.
Ce que nous offrons
- Rémunération : Confirmé (3-5 ans) : 45-55k€ / Senior (5+ ans) : 55-70k€ brut annuel, selon profil, expérience et expertise.
- Un environnement de travail flexible : hybride avec présence à Bordeaux (Halle Héméra).
- Des projets variés et stimulants auprès de clients grands comptes (Paris, Toulouse, Bordeaux).
- Une culture centrée sur l’humain : formation continue, certifications financées, montée en compétences.
- Une équipe à taille humaine avec une approche pragmatique et orientée valeur.
Processus de recrutement
- Candidature : Envoyez-nous votre CV.
- Réponse : Retour sur votre candidature sous 5 jours ouvrés.
- Entretiens : Un premier échange téléphonique suivi d’un entretien technique.
Nous nous engageons à répondre à toutes les candidatures, qu’elles soient retenues ou non.