Profil de R RT

R RT
635.00€ /j
Ingénieur études et dev Big Data Kafka Spark Scala java Machine Learning Consultant de l’ESN FreelanceDay
Disponible le : 01/07/2020
Localisation : France
Mobilité : Mobilité internationale
15 années d'expérience
0 missions réalisées
KafkaLinuxMONGODB

R RT en quelques mots

Robert
Ingénieur études et dev Big Data Kafka Spark Scala java Machine Learning

COMPETENCES FONCTIONNELLES
Finance, Banque, Assurance, Santé, télécommunication
COMPETENCES TECHNIQUES
 Très forte expérience dans la création de solutions data streaming en temps réel en utilisant spark core, Spark SQL Dataframe, Spark Streaming et Kafka
 Forte expérience dans la création de données pipeline avec les technologies du Big Data
 Expérience en technologies NOSQL comme Mongodb
 Bonne connaissance de HIVE et de HBASE
 Très bonne expérience du monde des microservices avec Java spring boot et spring cloud stream
 Très bonne connaissance de OAuth2 et de OIDC
 Excellente compréhension de Hadoop 2 et de ses composants
 Compétence dans l’utilisation de spark APIs pour nettoyer explorer, agréger des données
 Excellente capacité de manipuler les languages Scala et Java 8
 Maitrise des brokers de message comme Kafka et RabbitMQ
 A travaillé de façon extensive dans le Dimensional Modeling et des processus ETL pour data warehouse
 Très bonne expérience et compréhension des problématiques liées aux Search Engines
 Maitrise complète des SGBDR Oracle. Postegresql
 Maitrise des bases de données NOSQL notamment MONGODB
 Maitrise du Devops (Docker – GIT – Jenkins)
 Expert en REACT.JS et NODE.JS
LANGUES
Français Parfait
Anglais Courant
Italien Courant
Allemand Lu et écrit
FORMATIONS
Maitrise en Physique (Université Claude Bernard Lyon)
Master en informatique (Université Claude Bernard Lyon)
Certification : Bonita software (Solution JAVA BPM)

COMPETENCES SPECIALES
Spark Compréhension approfondie de Spark et de ses principes fondamentaux
Maitrise de l’implémentation de pipelines de données rapides
Maitrise de l’analyse de données avec spark

EXPERIENCES PROFESSIONNELLES

GROUPE YVES ROCHER – (02/2018 à 05/2020)
Projet 1: Construction d’une application ClickStream
Position : Developpeur et Et Administrateur
Description :
La société est intéressée à faire construire une application lui permettant d’obtenir une meilleure compréhension de ses clients.
Quel est le nombre total de visiteurs le mois dernier ?
Comment ce nombre se compare-t-il avec celui des mois précédents ?
Combien de temps en moyenne passent les visiteurs qui achètent sur le site
Pour chaque visiteur qui finalement a acheté, à quel canal de vente pouvons-nous l’affecter etc…
Tels sont quelques questions auxquelles l’application doit apporter une réponse

Responsabilités 1 : Développement

 Chargé de l’analyse des besoins du choix de l’architecture, de la conception et de l’implémentation de la solution
 Impliqué dans les techniques de stockage des données
 Impliqué dans la solution de la technique d’ingestion
 Traitement des données afin de modéliser, enrichir, transformer et assurer la qualité des données
 Testing (TDD)
 Industrialisation des développements
 Coordination de l’équipe

Environnement :

 Linux Ubuntu
 Java
 Scala
 Hadoop
 Hive
 kafka
 spring boot
 spring-cloud-stream
 Spark structured Streaming
 Linux

Responsabilités 2 : Administration de kafka

 Setup du kafka cluster et du Zookeeper
 Setup d’un ensemble de brokers
 Gestion des topics et partitions
 Gestion des groupes de consommateurs (Consumer Groups)
 Modifications dynamiques des paramètres de configuration afin de prendre en charge différents use cases au sein du même cluster
 Monitoring du cluster kafka
 Troubleshouting
 Déploiement en Production

Projet 2: Construction d’une application Recommendation Engine
Position : Developpeur Architecte et Data Analyst
Description :
Il s’agit de construire un outil puissant capable d’analyser des volumes important de données sur les produits et les clients et de fournir automatiquement aussi bien aux clients qu’aux décideurs des suggestions et prédictions basées sur des approches de datamining et de Machine Learning basé sur spark mllib

Responsabilités :

 Chargé de l’analyse des besoins du choix de l’architecture, de la conception et de l’implémentation de la solution
 Impliqué dans les techniques de chargement, d’injection et de traitement des données en utilisant spark
 Plusieurs techniques de Machine learning avec spark ont été utilisés tels que :
La régression Lineaire
La classification Linéaire
La classification KNN
Le filtrage collaboratif
Le K-MEANS Clustering
Etc…

Environnement :

 Linux Ubuntu
 java
 Scala
 Hadoop
 Spark core
 Spark Structured Streaming
 Spark-mllib

BANQUE DE FRANCE – (08/2015 à 12/2017)
Projet : Lambda Architecture system Design for financial data
Position : Developpeur TechLead
Description :
Il s’agit de concevoir un system capable de tirer profit soit des données financières journalières batch que
Des données financières qui arrivent en streaming.
C’est une architecture de traitement de données conçue pour gérer des quantités massives de données

Responsabilités :

 Chargé de l’analyse des besoins du choix de l’architecture, de la conception et de l’implémentation de la solution
 Design de kafka afin de supporter l’application
 Traitement des données temps réel avec scala et spark streaming
 Enregistrement des données Stream de spark dans la base de donnée nosql Cassandra
 Implémentation avec spark du traitement batch qui va créer la vue Batch dont le business a besoin
 Tuning et optimisation du system
 Gestion de la coordination de l’équipe
 Administration de kafka

Environnement :

 Linux Ubuntu
 Scala
 Spark Spark-Streaming, Spark-SQL
 Kafka
 Hadoop

VODAFONE – (01/2008 à 07/2015)
Développeur Java
Automatisation des services produits par Vodafone (Facturation, Entrées, Enquêtes, Plaintes)
Global connect : Conception et développement d’une application permettant aux dirigeants de créer des questionnaires afin d’obtenir des informations auprès des clients finaux.
Recueil des besoins
Rédaction de documentations techniques et fonctionnelles
Chiffrage
Conception, développement, aide à la recette
Environnement Technique : Java spring 3 , hibernate JPA JSP JSF Primefaces, Thymeleaf JQuery, Oracle

FIAT – (07/2006 à 07/2008)
Développeur Java
Planification, organisation et conception d’une base de données permettant l’analyse de la qualité des produits et services Fiat.
Réalisation d’une application permettant de générer des Feuilles de calcul des commissionnements à l’échelle mondiale
Environnement Technique : Java EJB Web services SOA eclipse Jboss Tomcat

Langues

Historiques (0)

  • Il n'y a aucune activité.