Référent technique Socles IT Datalab CI CD APIs

  • Type Régie
  • BUDGET Tarif selon profil
  • Durée (mois) 6
  • Pays France
  • Remote NON
  • Offres0
  • Moyenne Tarif selon profil
Réalisez votre mission en étant porté chez
Gagnez 940,43 net / mois En savoir plus

Publiée le 24 novembre 2024

Active

Description de la mission

Publié le 23/11/2024
Je suis à la recherche pour un de nos clients d’un Référent technique Socles IT (Datalab, CI/CD, APIs).
 Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l’amélioration de la performance de leur JOB ainsi que sur les bases de données (VERTICA/Oracle). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.
 Développer les nouveaux composants (Talend / Java / Shell / Oracle / Vertica / Snowflake / Jupyter / Python) afin d’alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.  Assurer le RUN (niveau 3) de l’infrastructure en utilisant les composants CA-GIP pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch/Logstash/Kibana/Grafana).
 Evaluer et valider les estimations de l’infogérant et des sous-traitants.
 Accompagner et superviser les missions confiées aux sous-traitants.
 Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.
• Connaissances techniques :
– Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL Talend…)
– Maitrise des outils de DevOps et des langages de programmation (java, spark, elk, kubernetes, gitlab, jenkins, spring Framework, unix, shell)
– Connaissance Hadoop, Bases de données relationnelles et non relationnelles (Oracle, Snowflake, Vertica)
– Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).
– Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.
Profil du candidat
Je suis à la recherche pour un de nos clients d’un Référent technique Socles IT (Datalab, CI/CD, APIs).
 Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l’amélioration de la performance de leur JOB ainsi que sur les bases de données (VERTICA/Oracle). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.
 Développer les nouveaux composants (Talend / Java / Shell / Oracle / Vertica / Snowflake / Jupyter / Python) afin d’alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.  Assurer le RUN (niveau 3) de l’infrastructure en utilisant les composants CA-GIP pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch/Logstash/Kibana/Grafana).
 Evaluer et valider les estimations de l’infogérant et des sous-traitants.
 Accompagner et superviser les missions confiées aux sous-traitants.
 Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.
• Connaissances techniques :
– Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL Talend…)
– Maitrise des outils de DevOps et des langages de programmation (java, spark, elk, kubernetes, gitlab, jenkins, spring Framework, unix, shell)
– Connaissance Hadoop, Bases de données relationnelles et non relationnelles (Oracle, Snowflake, Vertica)
– Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).
– Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.
Description de l‘entreprise
Je suis à la recherche pour un de nos clients d’un Référent technique Socles IT (Datalab, CI/CD, APIs).
 Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l’amélioration de la performance de leur JOB ainsi que sur les bases de données (VERTICA/Oracle). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.
 Développer les nouveaux composants (Talend / Java / Shell / Oracle / Vertica / Snowflake / Jupyter / Python) afin d’alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.  Assurer le RUN (niveau 3) de l’infrastructure en utilisant les composants CA-GIP pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch/Logstash/Kibana/Grafana).
 Evaluer et valider les estimations de l’infogérant et des sous-traitants.
 Accompagner et superviser les missions confiées aux sous-traitants.
 Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.
• Connaissances techniques :
– Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL Talend…)
– Maitrise des outils de DevOps et des langages de programmation (java, spark, elk, kubernetes, gitlab, jenkins, spring Framework, unix, shell)
– Connaissance Hadoop, Bases de données relationnelles et non relationnelles (Oracle, Snowflake, Vertica)
– Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).
– Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.

Compétences Techniques Requises

AwsQlikSenseSnowflake

Compétences Fonctionnelles Requises

DevOpsETL

À propos du Donneur d'ordres

Frédérique
14342 mission(s) publiée(s) 0 deal(s) gangné(s)
FREELANCER BIDDING (0)

Il n'y a pas d'offres.