EXpert Data SNOWFLAKE

  • Type Régie
  • BUDGET Tarif selon profil
  • Durée (mois) 6
  • Pays France
  • Remote NON
  • Offres0
  • Moyenne Tarif selon profil
Réalisez votre mission en étant porté chez
Gagnez 940,43 net / mois En savoir plus

Publiée le 24 novembre 2024

Active

Description de la mission

Publié le 23/11/2024
POSTE SITUE A PANTIN ET POUR UN PASSIONNE DE DONNEES
Si vous êtes un passionné de données, voici les responsabilités autour desquelles va tourner la mission :
Concevoir, construire, installer, tester et maintenir des systèmes de gestion de données hautement évolutifs.
Assurer que les systèmes répondent aux exigences métiers et aux pratiques de l’industrie.
Construire des algorithmes de haute performance, des prototypes, des modèles prédictifs et des preuves de concept.
Intégrer de nouvelles technologies de gestion de données et outils d’ingénierie logicielle dans les structures existantes.
Créer des outils de données pour les équipes d’analytique et de science des données afin de les aider à construire et optimiser notre produit.
Utiliser une variété de langues et d’outils pour assembler les systèmes ensemble.
Recommander des moyens d’améliorer la fiabilité, l’efficacité et la qualité des données.
Collaborer avec les architectes de données, les modélisateurs et les membres de l’équipe IT sur les objectifs des projets.
Profil du candidat
Un passionné de données SENIOR (au moins 5 ans d’expérience) maitrisant SNOWFLAKE:
Si tous ces mots-clés vous parlent (temps réel, Kafka, Snowpipe, Star Schéma, DataVault, DataMesh, virtualisation, SQL, Python, Java, Scala), vous les utiliserez pour 3 activités-clés :
Intégration de Sources de Données Multiples :
Configurer les connexions et intégrer diverses sources de données (API, bases de données, fichiers CSV, etc.) dans Snowflake, tout en assurant la qualité et la cohérence des données.
Optimisation de la Performance :
Améliorer l’efficacité des pipelines et des traitements SQL dans Snowflake.
Surveillance et Débogage :
Mettre en place des systèmes de monitoring pour identifier rapidement les erreurs et anomalies dans les processus ETL, assurer la continuité des flux de données et maintenir la qualité des données en production.
Description de l‘entreprise
Mission menée chez un client industriel, au sein de la DSI.
Vous serez intégré dans une équipe en charge de l’exploitation de données.
Travail présentiel avec la possibilité de faire 2 à 3J de TT

Compétences Techniques Requises

KafkaScalaSnowflake

Compétences Fonctionnelles Requises

APIDSIETL

À propos du Donneur d'ordres

Frédérique
14829 mission(s) publiée(s) 0 deal(s) gangné(s)
FREELANCER BIDDING (0)

Il n'y a pas d'offres.