Évoluant dans le monde de la Data depuis 7 ans, j’accompagne les entreprises sur leurs sujets Data Science afin d’aider à la prise de décision data-driven.
Dans ce cadre, j’utilise les techniques d’Analyse Exploratoire de données, des méthodes de Machine Learning Descriptives et Prédictives développées principalement en Python. J’ai également une bonne maîtrise des technologies Big Data et Cloud, notamment le cloud GCP, et des pratiques MLOps.
Ainsi, je suis capable d’intervenir dès la collecte des données, jusqu’à la restitution des résultats et la mise en production des modèles.
N’hésitez pas à me contacter pour échanger.
Ajouter une formation professionnelle à votre profil. (optionnelle)
Econométrie, Analyse de données, Technologies Big Data, Datamining, Scoring
Datamining, Machine Learning, Visualisation de données massives, Apache Kafka, Docker, Apache Spark, systèmes NoSQL (Cassandra, ElasticSearch, MongoDB)
Ajouter une expérience à votre profil. (optionnelle)
Contexte : Mettre en place et déployer des modèles de Machine Learning, effectuer des analyses statistiques ad-hoc permettant d’extraire des insights utiles au business
– Mise en place d’un score permettant de détecter les clients à fort potentiel de réachat
– Mise en place d’un système de recommandation produit
– Industrialisation du nouveau modèle de segmentation client
– Déploiement et mise en place d’un monitoring automatisé des modèles en production
– Administration des machines Dataiku
– Analyses statistiques ad-hoc
– Renfort sur le suivi de la qualité des données de la base CRM
Stack technique : Dataiku DSS, Python (Numpy, Scipy, Pandas, Matplotlib, Scikit-learn), SalesForce, JIRA, Bigquery, Google Cloud Storage, Cloud Functions, Cloud PubSub, Terraform
Contexte : Former de futurs Data Analysts à l’utilisation de Python et ses packages pour l’analyse de données, les études statistiques et le Machine Learning
– Découvrir et utiliser Jupyter Notebook et les widgets pour créer des dashboards interactifs
– Rappeler les notions statistiques de bases pour l’analyse de données
– Expliciter le fonctionnement des bibliothèques utilisées en analyse de données (Numpy, Scipy, Pandas)
– Expliciter le fonctionnement de la bibliothèque Matplotlib pour la Data Visualisation
– Expliciter le fonctionnement de la bibliothèque Scikit-learn pour le Machine Learning
– Mettre en place les ateliers pratiques pour chaque partie.
Stack technique : Python (Numpy, Scipy, Pandas, Matplotlib, Scikit-learn), Jupyter notebook
Contexte : Développer et mettre en place de la V1 de l’application Web de monitoring musical
– Collecter les données via des APIs
– Transformer et mettre à disposition les données dans l’entrepôt de données
– Modéliser et créer le datamart servant l’application
– Intégrer les données de monitoring
– Installer et configurer le serveur d’hébergement (AWS EC2)
– Mettre en place les certificats SSL/TLS
– Effectuer le développement Backend avec Python
– Effectuer le développement Frontend avec HTML, CSS, jQuery
– Configurer et mettre à disposition le serveur de mail
Stack technique: Python, Django, Docker, PostgreSQL, Ubuntu, jQuery, Ajax, HTML5, JSON, Bootstrap CSS, Git, Github
Contexte : Réaliser des études Data pour améliorer la connaissance client et aider la prise de décision du marketing
Projet 1 : Média Le Télégramme — « Segmentation de la base client »
– Créer un Datamart des données CRM
– Analyser et corriger les données aberrantes ou manquantes
– Créer des indicateurs et statistiques descriptives sur la connaissance client
– Réaliser la segmentation client avec la méthode K-means
Projet 2 : Laboratoire Bioderma — « Exploration de données CRM, et segmentation client »
– Collecter et transformer les données CRM
– Créer des indicateurs et statistiques descriptives
– Réaliser la segmentation client avec la méthode K-means
Projet 3 : Sports 2000 — « Qualité des données CRM »
– Contrôler et mesurer les données incohérentes et manquantes
– Nettoyer et corriger les données selon les règles de gestion établies
– Faire le suivi de la qualité des données en collaboration avec l’équipe IT
Stack technique : Linux Bash scripting, MySQL (création + administration), Python (Pandas), Jupyter Notebook, Dataiku
Contexte : Migration automatique des anciennes offres du parc client mobile
– Analyse des offres et options détenues et définition des règles de gestion
– Définir la matrice détaillée de migration à intégrer au SI
– Réaliser les bilans de migration des anciennes offres
– Analyser et suivre le taux de churn
– Analyser les impacts sur le CA après la migration
Stack technique : SAS Base, SAS Macro, Tableau software
Contexte : Enrichir les données de l’enquête Drees avec les données individuelles des bénéficiaires de l’aide APA / Remonter les données individuelles sur les bénéficiaires de l’aide PCH.
– Collecter les données auprès de 94 conseils départementaux
– Automatiser et optimiser les programmes SAS pour la collecte
– Apurer les données, définir les règles de correction, Homogénéiser les données
– Recoder les variables, Imputer les valeurs manquantes, Créer des indicateurs pertinents
– Constituer les bases de sondage et d’étude
– Analyser la qualité des données et réaliser des statistiques descriptives
Stack technique : SAS Base, SAS Macro, SAS Enterprise Guide
Contexte : Fournir les indicateurs de performance du programme Flying Blue, et mettre à jour les données de l’application web à destination des différents marchés à l’international.
– Créer les principaux KPIs
– Réaliser les tableaux de bords des principaux KPIs
– Intégrer les données CRM dans l’application web
– Mesurer l’impact des campagnes Marketing
– Réaliser les études connaissance client en collaboration avec les équipes transverses
Stack technique : SPSS Modeler, SAP Business Objects, WPS, R, Teradata
FeelanceDay, date création entreprise 12-05-2017 - Il y a 7 ans, forme juridique : SARL unipersonnelle, noms commerciaux REESK DIGITAL SOLUTION, adresse postale 28 RUE DE LONDRES 75009 PARIS, numéro SIREN : 829739622, numéro SIRET (siège) : 2973962200019, numéro TVA Intracommunautaire : FR28829739622, numéro RCS Paris B 829 739 622, activité (Code NAF ou APE), edition de logiciels applicatifs (5829C)
Nous passerons en revue les rapports du Freelance et du client afin de rendre la meilleure décision. Il faudra 3-5 jours ouvrables pour l’examen après avoir reçu les deux rapports.