Profil de Boubacar C

Boubacar C DATA ENGINEER 4 ANS D'EXP HADOOP, SPARK, HIVE, SQOOP, SCALA, PYTHON Consultant de l’ESN Ilyeum
Disponible pour mission Ouvert à l'embauche Disponible en Télétravail
460.00€ /j

1. DATA ENGINEER
 4 ans d’expérience dans la data.
 2 ans d’expérience en Big Data
 2 ans d’expérience en Business Intelligence
 2 ans d’expérience en AWS
 Bonne connaissance de la méthode Scrum Agile.
Compétences métiers
 Telecom
 Distribution
 Bâtiment et travaux public
Compétences organisationnelles/personnelles
 Esprit d’équipe.
 La force d’adaptation à différentes situations (technologies, interlocuteurs…)
 Montée en compétence rapide sur les domaines fonctionnels
 Mise en place des règles de gestions (SFD)
 Mise en place d’un POC
 Sens de responsabilité
Compétences techniques
 Ingestion des données en mode streaming et batch
 Analyses fonctionnelles et techniques
 Maitrise de langage Python, scala, GO, SQL
 Développement des applications de traitement des données
 Framework / Libraries: Spark streaming, Spark ML
 Deployment et suivi du cluster
 Web service : AWS.
 Bases de données : SQL Server, Oracle, Mysql.
 Reporting : QlikView, Power BI, Kibana
 Maitrise de Jinkins : CI/CD
 Méthodologie : Scrum -Agile
Compétences managériales
 Planification.
 Méthodologie Agile
 Décomposition des tâches
 Gestion des délais
 Bonne communication avec les clients

2. COMPETENCES TECHNIQUES :

DOMAINE
EXPERTISE
CLOUD AWS/GCP VPC, EC2, S3, REDSHIFT, KINESIS, GLUE, EMR, LAMBDA
BIG DATA HADOOP, SPARK, HIVE, SQOOP, KAFKA, NIFI
ETL TALEND OPEN STUDIO FOR BIG DATA, GLUE
SGBD MYSQL, SQL SERVER, ORACLE
NoSQL CASANDRA, DYNAMODB
MODÉLISATION MULTIDIMENSIONNELLE ETOILE, FLACON DE NEIGE
SYSTÈMES D’EXPLOITATION WINDOWS, LINUX
LANGAGE SQL, PYTHON, SCALA, GOLANG, SHELL
METHODE AGILE, SCRUM

3. MISSIONS :

PROJET DEVELOPPEMENT DES APPLICATIONS
PÉRIODE Janvier 2020 – A ce jour
Secteurs /client IT / VADEMI.
RÔLE DÉVELOPPEUR
EQUIPE 1 CP – 2 développeurs
CONTEXTE L’objectif de ce projet était :
 Identifier les serveurs
 Mettre en place des applications développées en Go permettant d’assurer la lecture et transfert des documents
 Classer des fichiers entre différents serveurs selon le contenu.
ACTIVITÉS  Identifier les sources et cibles(Serveurs)
 Créer les connections et canaux
 Lire et analyser les fichiers
 Transférer les fichiers
 Fermer les connexions
ENVIRONNEMENT GOLANG, GITHUB, JENKINS
METHODOLOGIE : AGILE – SCRUM

PROJET ANALYSE DES ACTIVITES DES CLIENTS (ORANGE)
PERIODE Aout 2018 – Décembre 2019
SECTEURS /CLIENT IT / ORANGE
ROLE DATA ENGINEER AU SEIN DE LA DIGITAL FACTORY
EQUIPE 6 Personnes
CONTEXTE L’objectif de ce projet consistait :
 Assurer le traitement et le suivi des clusters
 Connecter les différents clients aux différentes plateformes d’Orange Business Service.
 Assurer l’ingestion et le traitement des données puis suivre en temps réel l’évolution des activités des clients.
 Alerter en temps réel une fois des anomalies détectées et faire un rapport mensuel pour chaque client
ACTIVITÉS  Injecter des données en temps réel via les topics kafka (gateway http)
 Injecter des données (fichiers plats) en mode batch
 Contrôler la qualité des données avec Spark
 Nettoyer les données avec Spark et Python
 Implémenter les règles de gestion avec Spark et Scala
 Intégrer les données dans une base Cassandra (NoSQL)
 Exposer les données aux consommateurs (applications front) via des API REST
 Stocker et archiver les données sur HDFS
 Requêtage sur Hive
 Déployer et suivre des clusters avec Ambari et l’interface yarn
 Gérer des workflows et des coordinateurs avec Oozie
 Préparer et intégrer des codes avec Gitlab et jenkins
 Participer aux cérémonies SCRUM (Daily, Sprint planning.
 Créer des comptes AWS, utilisateurs, groupes des utilisateurs et affectation des ressources nécessaires
 Extraire, transformer et charger avec le service Glue(AWS)
 Traiter des données en utilisant EMR (Elastic Map Reduce)
 Stocker des données NoSQL dans DynamoDB(AWS)
ENVIRONNEMENT AWS, GCP, BIQQUERY, HADOOP, HDFS, SPARK, SCALA, PYTHON, HIVE, CASSANDRA, YARN, ZOOKEEPER, MAPREDUCE, KIBANA, DEVOPS(JENKINS, GIT)

PROJET MISE EN PLACE ET GOUVERNANCE D’UN SID
PERIODE Février 2016 – juillet 2018
SECTEURS/CLIENT BTP/MEGEC
EQUIPE 4 CONSULTANTS
ROLE CONSULTANT DATA
CONTEXTE L’objectif de ce projet consistait :
 Mettre en place d’un Système d’Information Décisionnelle dans le cadre de l’analyse des activités de l’entreprise et la prise des décisions avec des informations reflétant la réalité du terrain via une chaine de traitement allant des préparations des données jusqu’à l’édition des rapports
ACTIVITE  Participer aux ateliers avec le métier
 Préparer des données
 Extraire transformer et charger des données(ETL) avec TOS BD
 Alimenter des datawarehouses via des procédures ETL
 Modéliser/Mettre à jour du modèle en étoile et en flacon de neige
 Créer et alimenter des Datamarts pour le Reporting
 Calculer des KPI pour le suivi des différents projets
 Créer des rapports avec QlikView & Power BI
 Stocker des données d’historique dans un cluster Hadoop via des connecteurs Talend
 Participer à mettre en place un POC pour migrer les données vers AWS
ENVIRONNEMENT Oracle, SQL Server, HADOOP, HDFS, TALEND OPEN STUDIO FOR BIG DATA, QLIKVIEW 12, POWER BI V2 018 V2018, AWS (S3, GLUE, REDSHIFT)

4. FORMATIONS :

ANNEE FORMATION
2019 Formation GDPR
2019 Certification AWS Certified Solutions Architect – Associate
2019 Certification AWS Essentials
2019 Certification AWS Concepts
2019 Certification IBM – Hadoop Administration Level 1 & 2
2019 Certification IBM – Python
2019 Certification IBM – Spark 1 & 2
2018 Certification IBM – Hadoop fondamental
2014 – 2016 Mastère spécialisé en Informatique décisionnelle
2010 – 2013 Licence en MIAGE

Historique Professionnel (0)

  • Il n'y a aucune activité.