Expert Hadoop Infra Ops

  • Type Régie
  • BUDGET Tarif selon profil
  • Durée (mois) 6
  • Pays France
  • Remote NON
  • Offres0
  • Moyenne Tarif selon profil
Réalisez votre mission en étant porté chez
Gagnez 940,43 net / mois En savoir plus

Publiée le 5 décembre 2024

Active

Description de la mission

Publié le 05/12/2024
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) – Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d’un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d’une plateforme, notre client recherche un Expert Hadoop pour l’installation d’une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l’équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)
Profil du candidat
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) – Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d’un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d’une plateforme, notre client recherche un Expert Hadoop pour l’installation d’une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l’équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)
Description de l‘entreprise
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) – Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d’un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d’une plateforme, notre client recherche un Expert Hadoop pour l’installation d’une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l’équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)

Compétences Techniques Requises

HadoopScrumXldeploy

Compétences Fonctionnelles Requises

AnsiblePostgreSQLSCRUMSupport

À propos du Donneur d'ordres

Frédérique
10219 mission(s) publiée(s) 0 deal(s) gangné(s)
FREELANCER BIDDING (0)

Il n'y a pas d'offres.