Le data engineer en ESN : un profil en tension
La stack qui revient sur toutes les missions
En 3 ans de placement de data engineers chez AGATE IT, un socle technique commun emerge. PySpark pour le traitement distribue, Airflow pour l'orchestration, dbt pour la transformation SQL, Kafka pour le streaming, Delta Lake pour le lakehouse. Et de plus en plus, Dataiku comme plateforme unifiee pour les equipes mixtes data engineer / data scientist.
Les clients grands comptes (banque, assurance, energie) exigent quasi systematiquement PySpark + Airflow. Les scale-ups privilegient dbt + Snowflake. Dataiku s'impose dans l'industrie et la sante comme couche d'orchestration ML.
3 types de missions
- Build lakehouse : deployer l'architecture data from scratch. Duree 6-12 mois. Stack : Databricks, Delta Lake, PySpark, Terraform.
- Pipeline ML : industrialiser des modeles de Machine Learning ou Deep Learning. Feature stores, drift monitoring, A/B testing. Dataiku ou MLflow.
- Migration legacy : passer d'Informatica/Talend vers une stack moderne cloud-native. Le plus frequent en banque.
Salaires et certifications
Fourchettes constatees en Ile-de-France (2025) : junior 42-48K, confirme 52-62K, senior 65-80K. Les certifs qui font la difference : GCP Professional Data Engineer, Databricks Certified Data Engineer, AWS Data Analytics Specialty. Un data engineer certifie Databricks negocie en moyenne 8K de plus qu'un profil equivalent sans certification.
Mehdi
Consultant chez AGATE IT
Expert en data & ia, notre consultant partage ses retours d’expérience et ses bonnes pratiques pour vous aider dans vos projets.