• Salut !

    Je suis

    Expert BIGDATA

    Linkedin

  • Aussi

    Data Tech-lead

    Data Engineer

    Architecte BIGDATA

    Expert Infrastructure

    Consultant BI

    En plus Ingénieur Full-stack Java/EE pendant 7 ans

    Linkedin

QUI SUIS-JE ?

 

Salut

Expert BigData avec un profil Ingénieur recherche et développement Java/JEE, qui apporte son expertise et sa méthodologie sur des sujets qui vont de la mise en place et intégration continue jusqu’au Cloud Computing en passant par la Big Data, la Data Analyse et Dataviz.

Multi-competence (applicatif , infrastructure) pour aller de bout-en-bout d'un projet DATA.

COMPETENCES

  • Développement applicatif Big Data et Architecture des et des infrastructures Bigdata.
  • Infogéstion d'infrastructure Reseaux BIGDATA et Administration Hadoop et Elastick Stack
  • Data Architecture/BI Data-Analyse (ETL et Data-viz)
  • Développement Java/JEE - Python Full-stack
  • Informatique Décisionnelle et Business IntelligenceB
  • DataOps et Gestion de chaine CICD.

 

Business Intelligence

Dévloppement Web

Data Ingénieurie / BIGDATA

Développememt logiciel/Application

Ce que je sais faire

Avec une experience de plus de 20 ans et une expertise Big Data je suis très polyvalent et je sais très bien valoriser les données d'une entreprise (ce qui est une tache parmi les plus importantes), mais avant tout je suis un spécialiste informatique, mathématiques et statistiques, qui maîtrise également internet et les systèmes de bases de données numériques.
Par ailleurs, je maîtrise l’anglais technique, car c’est dans cette langue que s’utilisent ces outils.

J’ai une maîtrise des languages de développement comme Java et Python et Scala.
En tant que professionnel du Big Data, je maitrise les cadriciels comme ELK (Elasticsearch, Logstach, Kibana), Spark et Hadoop (Hive, Hue et Pig, Sqoop, Yarn, Zookeeper, Ambari et Cloudera Manager).

Je maîtrise aussi les bases de données comme H-base MongoDB et Cassandra en plus des bases relationnelles de type SQL et Oracle et DB2 et Salesforce.
Je suis rigoureux et organisé, car je dois traiter de très grandes quantités de données variées. J'ai une expertise en gestion et des connaissances solides du monde de l’entreprise, je suis également capable de déceler les besoins de mon entreprise et d’anticiper la viabilité des projets.

Outre le coté Applicatif je maitrise aussi le coté infrastructure avec de bonnes connaissances des systèmes réseaux et les couches de sécurité (Ldap, Ranger, Kerberos) et supervision ( Shinken, Canopsis , zeeplin, Pogs)   

Je suis doué pour la communication écrite et orale car conscient qu’il faut être très bon lors qu'on présente régulièrement des rapports au clients et au supérieurs hiérarchiques et pour expliquer l'essentiels de ses idées et ses conceptions.
Ayant un esprit d’équipe qui me permet de collaborer avec les différents départements de l’entreprise et aussi un relationnel impeccable avec mes collègues.

 

NE SUIS-JE  PAS génial !
Ce que je fais ?

Voici une partie de mon expertise

BIGDATA

Apporter une solution Big data avec des outils de traitement et transformation de données NoSQL. Mise en oeuvre des applications de traitements et de visualisations sur des Méga données.

BI: Dataviz

Réalisation de visualisations (Storytelling) de données prime sur la donnée brute. faciliter la tâche des professionnels de business Intelligence pour la prise décision et l'analyse des données.

BI : ETL

Extraction, transformation et chargement de données depuis les différentes sources d'information de l'entreprise (hétérogènes) jusqu'à l'entrepôt de données (modèles multidimensionnels).

Concéption & IMAGINATION

Analyse préalable des dossiers et rédaction du cahier de charges.

Génération et choix de l'architecture, et Choix des Designs Patterns

DEVELOPPEMENT back-end

La mise en place, de la configuration, du développement et de la maintenance du serveur, de la base de données et de l’application web. Interaction avec la partie front. 

DEVELOPPEMENT Front-end

La création de l'interface utilisateur d'un site ou d'une application web Intervenir sur tous les éléments apparaissant à l'écran et géré par le navigateur web de l'utilisateur.

RESEAUX: INFRASTRUCTURE

Installation, mise en place et maintenance des logiciels liés aux systèmes d’exploitation et Ecosystemes BIG DATA. Installation Clusters Integration de Workers Brokers et Nodes .

4650 Tasses de café
Projects
Clients
10  Partenariats
Mes Specialtés

Mes Compétences

Mes diplômes ainsi que mes différentes expériences professionnelles au cours de mon cursus m'ont permis d'acquérir de solides compétences techniques ainsi que de l'expérience dans le management de projet.

PYTHON

75%

JAVA/JEE

60%

xDI-SEMARCH - STAMBIA

80%

ETL(TALEND/INFORMATICA/BO)

60%

SPARK/HADOOP/ELK-ElasticStack

75% - 90%

DATAVIZ(QLIKsens/POWER-BI...)

70%

Management Projet (Jira)

75%

Supervision & Infra

60%

Gestion de Bases de Donées

75%

CI/CD : Intégration Continue et Déploiement Continu

80%
FORMATIONS (Par ordre chronologique)

FORMATIONS

2002 - 2005

Diplôme d’Ingénieur en Multimédia & Télécoms.

Au sein de ENSICAEN : Ecole Polytechnique à Caen

https://www.ensicaen.fr/

2006 - 2007

Diplôme de Master en Systemes Embarqués & Temps Réels.

Mai 2007 à Septembre 2007

Stage de Master 2 au LAB-STICC (Laboratoire des sciences et techniques de l'information, de la communication et de la connaissance) Alias LESTER (LAB ELECT-SYSTEMES TEMPS REEL) à LORIENT en Informatique Embarquée

« Sujet : Approche des systèmes flexibles et reconfigurables. »

Au sein de ECN : Ecole Centrale de NANTES

https://www.ec-nantes.fr/

Et Au sein de L’IRCCYN : Laboratoire des Sciences du Numérique de Nantes LS2N alias Institut de recherche en communications et cybernétique de Nantes IRCCYN

https://www.ls2n.fr

2008 - 2009

Diplôme de Master 2 Recherche en Systèmes d’informations & Contrôle de Gestion.

« Formation de 3 mois à l’ERP SAP R/3 : Modules MM, PP, PS, SD, FI-CO, HR »

Au sein de IGR-IAE : Institut de Géstion de Rennes IGR

École Universitaire de Management du groupe IAE: Instituts d'administration des entreprises

https://www.igr.univ-rennes1.fr/

2009 - 2010

Formation Java/JEE Nouvelles Technologies au sein de SODIFRANCE de Rennes.



Contenue Formation:


JAVA, JSP, XML, HTML, JSF(JBoss RichFaces, Primefaces, Apache Tomahawk RCFaces), HIBERNATE, EJB3, J.UNIT, STRUTS ET WEB SERVICES JMS ET SOAP, FOP, ITEXT, SWING, FLEX, SELENIUM, SVN, HUDSON, SVN, SWT, TEST DRIVEN DEV, ANT, AJAX.

Méthodologie:


Approche des méthodes agiles (SCRUM, XP)

2019 - 2020


Formation DATA-ANALYST (BIGDATA et BI)
au sein de M2I de NANTES.




ECOSYSTEM BIGDATA



ECOSYSTEM HADOOP

I-Contenu Formation BIGDATA :
Hadoop Administration et développement

Intégration et exploitation de l’environnement HDFS sous Cloudera
Gestion de configuration des systèmes distribués: ZOOKEEPER
Gestion des ressources: YARN
Unification de données en temps réels: Apach-KAFKA
Bases de données NoSQL: HBase
Requête SQL: IMPALA
Esport de données: SQOOP
HQL: Apache-HIVE
Pig-Latin: avec Apache-PIG
Transformation de données: TALEND BIGDATA
Visualisations, requêtes et filtres: HUE
Hadoop MapReduce: PIG et SPARK
Transformation de données: Apache-Spark
Scripts Scala, Python et JAVA
Elasticsearch /Logstach /Kibana (ELK)
Outils Développement:
DOKER, INTELLIJ, MOBAXTERM, ANACONDA, VISUAL STUDIO CODE, POSTMAN JUPITER

II-Contenu Formation BI :
Modélisation et mise en œuvre d'un projet BI avec les ETL et outils de Reporting et Dataviz suivant

Talend OS
Informatica
SSIS (Visual studio 2017 SSDT)
Qlik Sens
Power BI
SAP Business Objects – Designer XI (Création des Univers)
SAP Business Objects Web Intelligence BI 4 (ETL et Reporting)

2020


Formation Administration Linux Avancée
au sein de M2I de NANTES.

Contenu Formation :
Linux Administration Avancée

Gestion des utilisateurs et sécurité
Gestion et configuration Réseau
Ajout et suppression de logiciels
Gestion et partitionnement des disques - LVM
Gestion systèmes de fichiers
Archivage et sauvegarde
Gestion de boot et démarrage et arrêt du système
Gestion des processus
Gestion du service de temps
Gestion Journaux systèmes

2021/2022


Formation Snowflake Avancée
Chez Snowflake

Contenu Formation :
Snowflake Avancée

Modules :
• Entreposage de données
• Partage, marché et échanges (Smew)
• Data application builders (Dabw)
• Le MarketPlace
• Snowflake Data Cloud (SDC)

Transformations :
• Clonage des données
• Partage des données
• Migration des données

Méthodologie :
• Evaluation et l'optimisation des performances
• Réglage Snowflake sur les fonctionnalités de performances
• Adoption des meilleures pratiques
• Optimisez les coûts

Experiences

Experiences Professionnelles

Architecte Big Data pour le Hub Entreprise - Équipe DGREA (Gestion de la Relation Entreprise & Aides) 2024

Conception et implémentation d'une plateforme de données unifiée pour la consolidation et la distribution des informations relatives aux établissements

• Orchestration d'un data lake centralisé, agrégeant l'ensemble des connaissances de France Travail sur les établissements
• Optimisation des ressources de calcul et de stockage pour le traitement des données à grande échelle
• Déploiement et configuration d'une infrastructure Big Data robuste, incluant la mise en place de pipelines ETL et de processus de génération de DDL
• Implémentation d'un système d'ingestion de données dans Hive, supportant les modes full et incrémental (delta)
• Élaboration et exécution de suites de tests exhaustives : unitaires, d'intégration et de non-régression
• Mise en œuvre de l'intégration et du déploiement continus (CI/CD) via Concourse pour l'automatisation des flux de données
• Orchestration des workflows de production multi-environnements à l'aide de TWS d'IBM
• Conception de tableaux de bord automatisés pour le suivi des déploiements et de l'ingestion des données
• Optimisation des performances via le paramétrage fin des jobs Hive et l'ajustement des ressources allouées
• Intégration de Solr pour l'indexation et l'accélération des requêtes sur le Dataset
• Évolution continue du modèle de données, intégration de nouvelles sources et adaptation aux besoins des consommateurs
• Mise en place d'interfaces d'export vers les CRM Salesforce et Dynamics pour une exploitation optimale des données consolidées

Tech Lead Big data du Projet PSF – Equipe DATA-SE Chez BOUYGUES TELECOM 2023-2024

Tech-Lead data au sein de l'Equipe Data-SE sur le projet PSF qui a pour mission la garantie du bon déroulement dela migration des traitement existants des flux de données qui tournait sur le framework Magix-Load (ancien ETL de Bouygues Telecom) vers le framework Arcane (Nouveau version de l'ETL maison de Bouygues Telecom)
Realisation de la migration des données de ces flux depuis les bases de données Teradata vers les nouvelles bases de données sur Cloud GCP dans l'outil Big Query

Taches :
• Exécution de requêtes et manipulation de tables Teradata
• Rédaction de BL (Besoin logiciel) et des MEX (Manuel d’exploitation), et des STI (Spécification Technique Interface)
• Développements et Manipulations sous ARCANE (ETL de Bouygues Telecom)
• Développements et Manipulations sous MAGIC-LOAD (ancien ETL de Bouygues Telecom)
• Réalisation de STF (Service transfert de fichier) servant à la Migration de Jobs de l’outils ETL (Magic-Load) vers l’ETL (ARCANE)
• Arcanisation (Migrations des différents flux existants sous Magic-Load vers Arcane et de Teradata vers Big Query)
• Exploitation et développement de scripts SQL pour Teradata
• Exploitation et développement de scripts SQL pour Big Query
• Réalisation des Tests Unitaires et Tests fonctionnels ArcLab
• Ordonnancement des flux de traitement de données avec automatisation avec l’outil VTOM
• Générer les fichier sh pour l’automatisation du déploiement des tache sur Vtom sur les différents environnements
• Différents tests (unitaires, d’intégration, de non-régression, ARKLAB…)

Tech Lead Big data du Projet PEC – Pilotage de l’efficacité des Campagne Chez BPCE-IT 2022

Tech Lead Big data au sein de l'équipe PEC Pilotage de l’efficacité des Campagne au sein de l'entreprise BPCE-IT (coté CE)

Taches :

• Rédaction des scripts de Création et de mise a jours de Tables DATA-CRM.
• Créations de Spécifications fonctionnelles pour le mapping les champs avec le respect des règles de gestions
• Identification et suivi des livrables du projet IT-CE concernant le déploiement projet.
• Ordonnancement des flux PEC de traitement de données avec automatisation avec l’outil VTOM.
• Analyse des spécifications Push in-app et hors-app concernant les suivie de compagne via les canaux CRM (mail – SMS – Email – CRE – RDV)
• Création et Modification de Mapping STAMBIA pour l’alimentation des tables sur les différents environnements en fonction du besoin des équipes adjacentes
• Gestion des comptages des CRE dans les différentes bases sur les différents emplacements pour la gestion des pertes de données et préserver des anomalies
• Générer des fichiers Ksh pour l’automatisation du déploiement des tache sur Vtom sur les différents environnements
• Suivie de Prod et Gestion d’anomalie et plantons, Recette, Mise en Production…

DATA Tech Lead Projet Orlando chez CAPGEMINI / MMB-CCF 2022-2023

Tech Lead Big data au sein de l'Equipe Orlando chargée de la création de la SI de CCF (Crefdit Commercial de France, fusion de « My Money Bank » MMB et HSBC France) Gestion de l’Equipe Pilco (pilotage commercial) et de l’équipe Gesco (Gestion commerciale de campagne) et aussi de l’équipe Transverse Référentiel.

• Rédaction des scripts de Création et de mise a jours de Tables.
• Créations de Specs fonctionnelles pour le mapping les champs avec le respect des règles de gestions.
• Création et Modification de Mapping STAMBIA (xDI Semarchy) pour l’alimentation des tables sur les différents environnements.
• Paramétrage de Stambia pour l’accès aux données sur S3 de du Cloud AWS, et configuration pour la lecture et écriture depuis des Parquets et CSV et l’écriture sur les CRE de S3.
• Création de pipeline de traitement de données avec automatisation avec l’outil AirFlow.
• Dans le cadre de la RGPD : Purges des données personnelles
• Cartographie des différents flux et bases existants sur l’ensemble des projet Orlando avec Neo4J depuis Data Galaxy.
• Création de règles de traitement de filtrage et de modification de donnée STAMBIA et DBeaver.
Réalisation de jobs Spark de staging sous Stambia pour automatisation d’alimentation et de purge et update de données.
• Gestion des Buckets via BIG-BUCKET et GIT.
Gestion de CRE via AWS ATHENA (Read/Write/Clone).

Expert BIGDATA/Hadoop Expert Projet LAB chez UMANIS / BPCE-SI 2022

Réfèrent Big data au sein de l'Equipe Socle Data, (Préparation de données coté BPCE).
Projet de traitement et préparation des données avec Hadoop HIVE, SPARK, dans le cadre de la lutte Anti-Fraude, Anti-Blanchissement

• Ordonnancement des jobs SPARK (d'injestion et de transformation ainsi que de Load) des données sous VTOM : Création de Dmot.
• Cartographie des différents flux et bases existants sur l’ensemble des projets sous le référentiel NEO4J.
• Création de scripts d’ingestion des données des différents services data
• Transformation de données avec l’outils OAG (Outils Maison crée par Natixis)
• Dans le cadre de la RGPD : Purges des données personnelles et Anonymisation

Expert BIGDATA - Projet QDD / Projet DATASFR chez ACCENTURE / EDF 2021-2022

Teck Lead Big data au sein de l'Equipe QDD-EDMA (Qualité de Données)chez EDF et l'équipe DATASFR (Service Facturation et Recouvrement).

• Projet de traitement et amélioration des données EDF avec Hadoop HIVE sur des bases issuesdu DataWarehouse de EDF et de INSEE.
• Bascule Hive d’un projet Hbase existant (Reverse-Ingineering).

Administrateur Systèmes BIG DATA Niveau N3 chez Orange OCB / EDF-GDF 2020-2021

Administration systèmes BIG DATA niveau N3 au sein de l’équipe I3T Chez Orange Cloud for Business, Conception et d’intégration d’architectures réseaux Big data, assurer le traitement des incidents et des demandes de changements relatifs à l'infrastructure Big data de EDF-GDF (Energie de France - Gaz de France)

Déploiement applicatif et Traitement BIGDATA chez CNAM / CPAM 2017-2019

Solution pour réduire le temps des tâches de déploiement avec Rundeck centrée sur Saltstack pour la gestion de l'infrastructure et de l'applicatif (Applications web d'administration de dossiers médicaux à destination des CPAM) pour cela au moyen de:
• virtualisation (Virtualisation d'environnements de développement avec Docker dans une plateforme Vagrand) et simulation de reseau de déploment de Données similaire a celui de la CPAM.
• Automatisation de la chaîne de déploiement de la CNAM et modernisation de son socle technique

Consultant(AUSY) JAVA/JEE chez CEA/DAM 2017

Développement et Maintenance du projet (INFLUVAL-IPODRAD) du CEA (Commissariat à l'énergie atomique et au énergies alternatives) en partenariat avec La DAM (Direction des applications militaires) au sein de l’équipe CEA d’AUSY Aix-en-Provence en TMA à l’agence AUSY de Nantes.

Developpeur Tech Lead DATA/BI avec profil Full Stack JAVA/JEE chez AUSY/USG 2009-2015

Poste Ingénieur DATA Ops avec profil Java/JEE USG (Urgence Sécurité spécialisée en Télésurveillance) à ANGERS dans le cadre de mission de création et maintenance du portail web de l’entreprise et des web services avec les nouvelles technologie Java/JEE (Strust, Hibernate, Swing Web-Seervices...)
• Gestion du stream de données de bout en bout
• Traitement de donner avec Talend Open studio
• Integration sur des Bases SQL
• Dataviz: Exportation au moyen de MyReport et integration sur l'application web avec un deployment JAVA en Model MVC.

DATA Ingénieur Junior chez SONNHALTER Oujda/MAROC 2003-2006

Ingénieur DATA au sein de la société SONNHALTER (Société de service accompagnant les entreprises de bâtiment et construction, spécialisée en B2T):

• Gestion de bases de données et interfaces des applications utilisées par SONNHALTER
• Création du système de tableaux de bords - comptes de résultats - Plan à moyen terme, budget annuel et mensuel et effectifs,
• Création d’indicateurs pour différents services et gestion de bases de données sous oracle.

TIME LINE

Parcours Chronologique

Mes occupations

Mes centres d'interéts

Fractales

Fascination

55 9

La botanique

Connaissances

122 73

Methodes agiles

Methodologie

101 49

Saltstack

Déploiment Applicatif

103 42

ACTIVITES

Mes loisirs

HTML5 Bootstrap Template by colorlib.com
LA PECHE

UNE PHYLOSOPHIE DE VIE

De la confrontation entre l’homme et le poisson résulte cette évidence qu’il est parfois commode d’ignorer : nous ne sommes pas complètement maîtres du monde. Du silence naît l’inévitable confrontation à soi, à ses propres pensées. De ce sport ou pratique plus précisément où l’imprévisible est roi, la célébration du merveilleux et de l’inexplicable, de l’harmonie avec l’environnement à l’harmonie avec soi. D’une pratique assidue, l’élan philosophique. "Vous pêchez comme si la manière dont vous le faites était éminemment importante, mais vous ne devez jamais oublier qu’elle n’est importante que pour des raisons sans importance

HTML5 Bootstrap Template by colorlib.com
LA Photographie

CAPTURE DE L'INSTANT

Ma passion pour la photo, une passion qui m’habite depuis fort longtemps. J’adore mettre en valeur chaque élément que je photographie car chaque personne ou chaque cliché possède sa propre personnalité et la photo vient mettre cette touche unique qui rend vos souvenirs mémorables en venant saisir un flux de vie ou de réel en le surchargent d'expression uniquement dans la manière dont on le saisi pour le mettre à la portée d'autrui ou simplement le rejouer un autre instant pour le goût de la nostalgie.

HTML5 Bootstrap Template by colorlib.com
NATATION

L'AME NAGEUSE

Quitter la terre ferme, glisser sur le reflet de l’eau, l’ourler, le corps suspendu en apesanteur entre deux mondes fluides, un liquide, l’autre gazeux. Perdre pied alors dans la mer salée qui prend l’homme, un chwiya diferente de celle de la piscine chlorée,.

Ce n’est pas aimer l’eau, c’est l’eau qui vous aime.

Dés lors, revenir à la pesanteur est parfois aussi héroïque que de prendre le large...