Profil de A TR

A TR
610.00€ /j
Developpeur big data Consultant de l’ESN Nugbe
Disponible le : 23/07/2020
Localisation : France
Mobilité : Mobilité internationale
5 années d'expérience
0 missions réalisées

A TR en quelques mots

« Développeur Big Data spécialisé sur les langages suivants: Scala, Python, Java. Je suis passionné par les technologies Big Data (Spark, Hadoop, Elasticsearch, Kafka) et doté d’une forte capacité de compréhension et d’adaptation »

 

 

 

 

 

COMPÉTENCES TECHNIQUES

 

Programmation :

Scala, Java, python, R, PHP, Bash, JavaScript, Langage c

Big Data :

Spark, Akka, Kafka, Logstash, Elasticsearch, HDFS, Redis, flume, Redshift, ki-bana, Haddoop-MapReduce

Cloud : 

Openstack, Alien4cloud, Cloudify

Web : 

Java 2 Entreprise Edition, JavaScript, XML, Html, Xslt, Xpat

BDD : 

Pl/SQL, SQL, Oracle, JDBC

OS : 

Linux (Ubuntu), Windows Divers REST api, Soap, Merise, Uml Data Science Algorithmes de Machines learnings: Kmeans, Knn, bayésien naïf

Divers : 

REST api, Soap, Merise, Uml

Outils : 

IntelliJ, Eclipse, Netbeans, GIT Rancher, Docker, Jenkins

 

 

FORMATION 

 

 

2015 :                              

Master 2 Ingénierie de l’information, de la communication et de l’interaction(Big Data et machine learning), Université Paris-Sud, Orsay 

 

 

LANGUES

 

 

Anglais                            :

Professionnel

 

 

 

EXPÉRIENCE PROFESSIONNELLE

 

 

Depuis Avril 2019 

ICADE > Data Engineer

 

 

Projet :

Mise en place d’un Datalake et d’un data pipeline afin de centraliser toute les données web et CRM. La finalité étant d’aider les équipes marketing à mieux comprendre leurs audiences afin de mieux les cibler.

 

Missions :

 

ü  Installation et configurations nécessaires à la mise en place du DataLake

ü  Intégration des flux de données dans le Datalake (Flume, Sqoop, HDFS) 

ü  Automatisation et l’orchestration des chaines des traitements avec Airflow 

ü  Analyse des données avec hive 

ü  Conseiller et éclairer le client sur les cas d’usages adressables avec les données récupérées

ü  Implémentation de job spark pour le traitement de données

ü  Maintenance des chaînes de traitements

ü  Documentations techniques

 

 

Environnement Technique : Spark, Spark streaming, Kafka, Logstash, ElasticSearch, R, Hadoop/HDFS, flume, Kibana, Redis, Python, Bash, Openstack, Cloudily, Alien4cloud, Scrum/Agile,JAVA, ubuntu

 

 

10/2015 – 03/2019 

(3ans et 5mois)

MAKAZI > Développeur Scala/Java

 

 

Projet :

Mise en place d’une architecture Big Data et développement de micro services dans le cadre de la méthodologie Agile Scrum

 

Missions :

 

ü  Developpementd’ApismicroServicesRestavecleframeworkPlayScala/Java

ü  Développement d’acteurs Akkaen Scala

ü  Développement de connecteurs vers d’autres Apis externes en Restet Soap: Esp, Dsp

ü  Echange avec les partenaires et les clients afin de définir les besoins à adresser par les connecteurs

ü  Tests d’intégrations et unitaires

ü   Livraisons en recette et production

ü  Gestion de la base de données avec Slick 

ü  Conception et implémentation d’une solution permettant d’effectuer des calculs instantanés sur une grosse volumétrie de données

ü  Indexation des données dans elastic Search pour un accès à temps réel 

ü  Implémentation d’un job ETL en python pour l’ingestion de données

 

 

Environnement Technique : Scala, Play, Java, Akka, Slick, Spark, Kinesis, Amazon s3, ElasticSearch, Redshift, AWS Lambda, Python, Rancher, Docker, Postgres, Airflow

 

 

 

 

 

03/2015–09/2015 

(6 mois)

Bull > Développeur

 

Projet :

 

Réalisation d’un démonstrateur Big Data en utilisant la Méthode SCRUM dans un environnement Cloud

 

Missions :

 

ü  Echange avec le client afin de prendre connaissance des besoins client

ü  Traduction de leurs problématiques sous forme de problèmes big data

ü  Mise en place des solutions adaptées dans le cadre de la méthodologie Agile Scrum 

ü  Extraction transformation et chargement des données 

ü  Reporting et Data visualisation

ü  Choix et Intégration des technologies Big Data à utiliser pour la mise en place de l’architecture lambda

ü  Implémentation différents modèles de machines Learning pour le traitement des données afin d’obtenir une vue descriptif et prédictif des anomalies

 

 

Environnement Technique : Spark, Spark streaming, Kafka, Logstash, Elasticsearch, R, Hadoop/HDFS, flume, Kibana, Redis, python, Bash, Openstack, Cloudily, Alien4cloud, Scrum/Agile, JAVA, ubunt

 

 

Langues

Historiques (0)

  • Il n'y a aucune activité.