Publié le 23/11/2024
Je suis à la recherche pour un de nos clients d’un Référent technique Socles IT (Datalab, CI/CD, APIs).
Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l’amélioration de la performance de leur JOB ainsi que sur les bases de données (VERTICA/Oracle). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.
Développer les nouveaux composants (Talend / Java / Shell / Oracle / Vertica / Snowflake / Jupyter / Python) afin d’alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business. Assurer le RUN (niveau 3) de l’infrastructure en utilisant les composants CA-GIP pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch/Logstash/Kibana/Grafana).
Evaluer et valider les estimations de l’infogérant et des sous-traitants.
Accompagner et superviser les missions confiées aux sous-traitants.
Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.
• Connaissances techniques :
– Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL Talend…)
– Maitrise des outils de DevOps et des langages de programmation (java, spark, elk, kubernetes, gitlab, jenkins, spring Framework, unix, shell)
– Connaissance Hadoop, Bases de données relationnelles et non relationnelles (Oracle, Snowflake, Vertica)
– Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).
– Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.
Profil du candidat
Je suis à la recherche pour un de nos clients d’un Référent technique Socles IT (Datalab, CI/CD, APIs).
Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l’amélioration de la performance de leur JOB ainsi que sur les bases de données (VERTICA/Oracle). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.
Développer les nouveaux composants (Talend / Java / Shell / Oracle / Vertica / Snowflake / Jupyter / Python) afin d’alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business. Assurer le RUN (niveau 3) de l’infrastructure en utilisant les composants CA-GIP pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch/Logstash/Kibana/Grafana).
Evaluer et valider les estimations de l’infogérant et des sous-traitants.
Accompagner et superviser les missions confiées aux sous-traitants.
Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.
• Connaissances techniques :
– Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL Talend…)
– Maitrise des outils de DevOps et des langages de programmation (java, spark, elk, kubernetes, gitlab, jenkins, spring Framework, unix, shell)
– Connaissance Hadoop, Bases de données relationnelles et non relationnelles (Oracle, Snowflake, Vertica)
– Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).
– Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.
Description de l‘entreprise
Je suis à la recherche pour un de nos clients d’un Référent technique Socles IT (Datalab, CI/CD, APIs).
Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l’amélioration de la performance de leur JOB ainsi que sur les bases de données (VERTICA/Oracle). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.
Développer les nouveaux composants (Talend / Java / Shell / Oracle / Vertica / Snowflake / Jupyter / Python) afin d’alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business. Assurer le RUN (niveau 3) de l’infrastructure en utilisant les composants CA-GIP pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch/Logstash/Kibana/Grafana).
Evaluer et valider les estimations de l’infogérant et des sous-traitants.
Accompagner et superviser les missions confiées aux sous-traitants.
Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.
• Connaissances techniques :
– Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL Talend…)
– Maitrise des outils de DevOps et des langages de programmation (java, spark, elk, kubernetes, gitlab, jenkins, spring Framework, unix, shell)
– Connaissance Hadoop, Bases de données relationnelles et non relationnelles (Oracle, Snowflake, Vertica)
– Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).
– Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.
Il n'y a pas d'offres.
All rights reserved © FreelanceDay 2025
FeelanceDay, date création entreprise 12-05-2017 - Il y a 8 ans, forme juridique : SARL unipersonnelle, noms commerciaux REESK DIGITAL SOLUTION, adresse postale 28 RUE DE LONDRES 75009 PARIS, numéro SIREN : 829739622, numéro SIRET (siège) : 2973962200019, numéro TVA Intracommunautaire : FR28829739622, numéro RCS Paris B 829 739 622, activité (Code NAF ou APE), edition de logiciels applicatifs (5829C)