DATA ENGINEER GCP SPARK KAFKA SCALA

  • Type Régie
  • BUDGET Tarif selon profil
  • Durée (mois) 12
  • Pays France
  • Remote NON
  • Offres0
  • Moyenne Tarif selon profil

Publiée le 22 octobre 2024

Active

Description de la mission

– Intégrer des données provenant de sources externes et exploiter pleinement le Datalake.
– Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels.
– Mettre en place la chaîne complète d’ingestion, validation, croisement et stockage des données enrichies dans le Datalake.
– Respecter les normes d’architecture définies lors du développement.
– Documenter les user stories en collaboration avec le PO
– Créer des scripts de déploiement et prioriser la résolution des anomalies.
– Soutenir les équipes d’exploitation et contribuer à l’implémentation de la chaîne de livraison continue. – Automatiser les tests fonctionnels.

Compétences Techniques Requises

Apache KafkaApache SparkGoogle Cloud Platform

Compétences Fonctionnelles Requises

PO

À propos du Donneur d'ordres

Frédérique
8358 mission(s) publiée(s) 0 deal(s) gangné(s)
FREELANCER BIDDING (0)

Il n'y a pas d'offres.