Description
VOS MISSIONS
En tant que Junior Data Engineer, vous jouerez un rôle clé dans l'évolution de notre infrastructure de données. Vous serez principalement chargé de :
1. Maintenir et améliorer nos pipelines d'ingestion de données météorologiques et BI, basés sur des API externes.
2. Participer à la maintenance de notre API interne fournissant des données météorologiques au reste de l'entreprise.
3. Contribuer à la transition technologique liée au lancement de notre nouvelle génération de stations.
Vos responsabilités :
1. Maintenance et optimisation des pipelines d'ingestion de données.
2. Amélioration continue des pipelines existants pour renforcer leur robustesse et leur performance.
3. Collaboration active avec les équipes techniques pour garantir une intégration fluide des nouvelles technologies.
VOS EVOLUTIONS
La politique RH vous garantit un accompagnement régulier pour vous faire progresser et évoluer vers de nouvelles missions en fonction de votre projet. Rejoindre notre Groupe, c'est la garantie d'une formation initiale et continue, d'un plan de carrière personnalisé et d'un management de proximité.
LES CONDITIONS PROPOSEES
1. Un impact concret : mettre vos compétences au service des agriculteurs et de la lutte contre le changement climatique.
2. Salaire compétitif, adapté à votre expérience.
3. Mutuelle prise en charge par l'entreprise.
4. Participation aux abonnements sportifs via Gymlib.
5. Remboursement d'abonnements à certaines plateformes de streaming.
6. Flexibilité du travail à distance 2 jours/semaine.
7. CDI à pourvoir à Lille.
VOTRE PROFIL
Expérience et expertise technique :
1. Première expérience (1 à 2 ans) dans l'ingestion et le traitement de données.
2. Maîtrise des bonnes pratiques du software engineering (versioning, revue de code, tests, documentation).
3. Excellente maîtrise de Python (pandas, httpx) pour l'ingestion et le traitement de données.
4. Bonne connaissance de SQL et des bases de données relationnelles.
5. Expérience avec un outil d'orchestration comme Airflow.
6. Une expérience avec AWS, les conteneurs et Kedro est un atout.
Soft Skills :
1. Curieux et motivé à partager vos connaissances avec l'équipe.
2. Habilité à recevoir et donner des feedbacks constructifs.
Ce que vous apprendrez :
1. Travailler sur l'ensemble du cycle de gestion des données : traitement en stream et batch, conception d'API HTTP.
2. Manipuler un large éventail d'outils : Python, Airflow, PostgreSQL, Kafka, Pyspark, Databricks, Datadog, GitHub workflows, et potentiellement Scala.
PROFIL SOUHAITÉ
Expérience
* Expérience exigée de 1 An(s).
#J-18808-Ljbffr