Publié le 05/12/2024
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) – Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d’un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d’une plateforme, notre client recherche un Expert Hadoop pour l’installation d’une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l’équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)
Profil du candidat
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) – Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d’un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d’une plateforme, notre client recherche un Expert Hadoop pour l’installation d’une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l’équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)
Description de l‘entreprise
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) – Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d’un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d’une plateforme, notre client recherche un Expert Hadoop pour l’installation d’une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l’équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)
Il n'y a pas d'offres.
All rights reserved © FreelanceDay 2024
FeelanceDay, date création entreprise 12-05-2017 - Il y a 7 ans, forme juridique : SARL unipersonnelle, noms commerciaux REESK DIGITAL SOLUTION, adresse postale 28 RUE DE LONDRES 75009 PARIS, numéro SIREN : 829739622, numéro SIRET (siège) : 2973962200019, numéro TVA Intracommunautaire : FR28829739622, numéro RCS Paris B 829 739 622, activité (Code NAF ou APE), edition de logiciels applicatifs (5829C)