BIG DATA ENGINEER AWS – DOCKER – K8S – TERRAFORM – MICROSERVICES – PYTHON

  • Type Régie
  • BUDGET Tarif selon profil
  • Durée (mois) 6
  • Pays France
  • Remote NON
  • Offres0
  • Moyenne Tarif selon profil
Réalisez votre mission en étant porté chez
Gagnez 940,43 net / mois En savoir plus

Publiée le 20 décembre 2024

Active

Description de la mission

Publié le 19/12/2024
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data.
Activités principales de la prestation :
• Développement de la plateforme de micro-services AWS
• Industrialisation des cas d’usage métiers du groupe en lien avec les médias
• Gestion de la qualité, la fiabilité et l’accessibilité des données
• Développement des pipelines de traitement de données avec orientation média
• Collaboration avec les équipes de Data Science pour comprendre les besoins en données et
mise en place des solutions appropriées
• Maintenir et optimiser des systèmes de données existants
Niveau d’expertise attendu pour la réalisation de la prestation :
Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé)
Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé).
Un minimum de 4 ans d’expérience est attendu.
Expériences requises pour la réalisation de la prestation :
• Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT
• Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME
• Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME
• Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME
Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME
• Expérience avec les bases de données SQL et Graph: CONFIRME
• Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE
• Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Profil du candidat
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data.
Activités principales de la prestation :
• Développement de la plateforme de micro-services AWS
• Industrialisation des cas d’usage métiers du groupe en lien avec les médias
• Gestion de la qualité, la fiabilité et l’accessibilité des données
• Développement des pipelines de traitement de données avec orientation média
• Collaboration avec les équipes de Data Science pour comprendre les besoins en données et
mise en place des solutions appropriées
• Maintenir et optimiser des systèmes de données existants
Niveau d’expertise attendu pour la réalisation de la prestation :
Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé)
Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé).
Un minimum de 4 ans d’expérience est attendu.
Expériences requises pour la réalisation de la prestation :
• Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT
• Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME
• Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME
• Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME
Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME
• Expérience avec les bases de données SQL et Graph: CONFIRME
• Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE
• Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Description de l‘entreprise
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data.
Activités principales de la prestation :
• Développement de la plateforme de micro-services AWS
• Industrialisation des cas d’usage métiers du groupe en lien avec les médias
• Gestion de la qualité, la fiabilité et l’accessibilité des données
• Développement des pipelines de traitement de données avec orientation média
• Collaboration avec les équipes de Data Science pour comprendre les besoins en données et
mise en place des solutions appropriées
• Maintenir et optimiser des systèmes de données existants
Niveau d’expertise attendu pour la réalisation de la prestation :
Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé)
Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé).
Un minimum de 4 ans d’expérience est attendu.
Expériences requises pour la réalisation de la prestation :
• Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT
• Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME
• Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME
• Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME
Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME
• Expérience avec les bases de données SQL et Graph: CONFIRME
• Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE
• Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME

Compétences Techniques Requises

DéveloppementDockerLambda

Compétences Fonctionnelles Requises

APIdata scienceGestion

À propos du Donneur d'ordres

Frédérique
12542 mission(s) publiée(s) 0 deal(s) gangné(s)
FREELANCER BIDDING (0)

Il n'y a pas d'offres.