Workshop - Gagner en efficacité & en productivité avec la Gen AI en live le mercredi 02 avril à 11h30
Workshop - Gagner en efficacité & en productivité avec la Gen AI en live le mercredi 02 avril à 11h30
Workshop - Gagner en efficacité & en productivité avec la Gen AI en live le mercredi 02 avril à 11h30
Je m'inscris
Mercredi 02 avril à 11h30
Gagner en efficacité & en productivité avec la Gen AI

Nous vous proposons un atelier interactif où nous allons vous présenter :

📄 Comprendre la Gen AI

  • Qu’est-ce que l’IA Générative et comment fonctionne-t-elle ?
  • Pourquoi est-elle en train de révolutionner tous les secteurs ?

⚡ Comment elle peut vous aider au quotidien

  • Des stratégies pour en tirer le meilleur parti et gagner en efficacité

🧑‍💻 Une démo en live pour apprendre à utiliser ChatGPT

  • Apprenez les bonnes pratiques pour prompter
  • Réalisez une comparaison entre les différents modèles de Gen AI (Claude, ChatGPT, Claude...)

Je m'inscris

Témoignage : comment Victor a réussi sa reconversion en data avec DataBird

Découvrez le témoignage de Victor, ancien ingénieur dans le nucléaire, qui a réussi sa reconversion en data grâce à la formation DataBird. SQL, Power BI, Python… Il partage son parcours et ses conseils.

Antoine Giannotta
Responsable Produit @DataBird
Mis à jour le
7/3/2025

Découvrez nos formations dédiées à la Data Analyse.

Découvrir

Changer de carrière et faire une reconversion peut être un défi, mais avec les bonnes ressources et un apprentissage structuré, tout devient possible. C'est ce qu’a vécu Victor, ancien ingénieur spécialisé dans le nucléaire, qui a décidé de se tourner vers la data après un changement de vie.

Grâce à la formation DataBird, il a acquis des compétences essentielles en SQL, Python et Power BI, lui permettant aujourd’hui de travailler sur des projets data d’envergure. Dans ce témoignage, il revient sur son parcours, ses attentes, ses projets et la manière dont la formation l’a aidé à réussir sa reconversion.

👉 Plongez dans son expérience et découvrez comment il a su faire de la data un levier de transformation professionnelle !

Peux tu te présenter en quelques mots ?

Je m’appelle Victor, j’ai 31 ans et je suis issu d’une formation d’ingénieur orienté industrie, avec une spécialisation dans le nucléaire. Lors de ma première expérience professionnelle en tant que prestataire pour EDF, j’ai touché du doigt le monde de la data (à coup de d’extractions de données de l’ERP en fichier Excel, et développement de macros VBA).

Après avoir subi les confinements dans notre appartement, ma compagne et moi avons décidé de quitter la région parisienne pour nous installer proche de Saint-Malo. J’ai quitté mon poste par la même occasion, et j’ai initialement cherché un poste dans la continuité de celui-ci, mais le nucléaire n’a pas trop la côte en Bretagne. J’ai donc décidé de m’orienter vers la data, et j’ai fait le choix de Databird pour ma formation.

Quelles étaient tes attentes en rejoignant la formation chez DataBird ? Que t'a finalement apporté notre formation ?

Ce que j'attendais de ma formation chez DataBird, c’était d’acquérir les connaissances techniques ainsi que la culture data nécessaires pour prétendre à un poste de Data Analyst.

J’ai découvert SQL et Power BI (ainsi que Power Query) lors de la formation, et j’ai approfondi mes connaissances en Python (qui commençaient à dater), notamment sur les outils d’analyse de données (packages Pandas et NumPy par exemple).

Avant la formation, ma manière d’analyser les données était cantonnée à l’utilisation d’Excel, ce qui certes permet de faire beaucoup de chose lorsque l’on exploite des outils comme les tableaux croisés dynamiques et VBA, mais ce sont des choses qui sont faisables avec une facilité déconcertante en SQL ou en Python et avec Power BI.

Peux-tu décrire un projet spécifique que tu as réalisé durant ta formation ?

J’ai travaillé sur un projet d’analyse du marché de la livraison de repas à domicile, dans l’optique d’une implantation d’un nouvel acteur :

Nous avions comme données source une base de 800k commandes passées chez différents livreurs, avec les montants associés, la ville, l’heure, le profil du client (âge, genre) et le restaurant. Nous avons cherché à enrichir ces données, d’abord en cherchant des informations sur la satisfaction client en cherchant des notes ou des commentaires sur les restaurants, mais au vu du temps imparti pour réaliser le projet, nous avons choisi de mettre de côté cette idée. A la place, nous avons pu récupérer des données en open data recensant tous les restaurants, que nous avons pu croiser avec notre dataset.

S’en est suivi une phase de data cleaning pour rendre exploitable au maximum les données : nous avons fait le choix de développer un script en Python pour arriver à nos fins. Nous avons pu extrapoler les prix des commandes d’un des livreurs, pour lequel nous n’avions l’information que sur le décile de prix auquel appartenait la commande.

La modélisation du jeu de données n’a pas posé de problème particulier, nous avons pu prendre le temps d’élaborer un rapport PowerBI avec toutes les fonctionnalités que nous avions pu voir en formation : tooltips, drillthrough etc.

As-tu eu l'occasion d'appliquer les compétences acquises dans un contexte professionnel ?

Dans un contexte professionnel, j’utilise de manière quotidienne SQL et quasi quotidiennement Python, et quasiment tout ce que j’ai appris lors de ma formation me sert au quotidien.

Les méthodes d’EDA (Exploratory Data Analysis) avec Python que l’on a pu voir en formation m’aident encore au quotidien pour prendre du recul vis-à-vis des données, pour par exemple isoler des valeurs aberrantes d’un dataset : j’ai eu affaire à un cas de ce genre pour un projet de consolidation de données financières provenant d’une trentaine de filiales à l’international. Les données étaient censées être converties en euro, mais en menant mon EDA j’ai pu isoler une filiale dont les résultats n’avaient été convertis, et faire remonter cet écart au contrôle de gestion et donc corriger les données.

Quels aspects techniques de la formation t'ont le plus aidé dans ta carrière ?

Je suis entré en poste juste au début de la migration vers une Modern Data Platform, en passant d’un serveur SQL à Snowflake. Cette migration implique de prendre connaissance  de l’intégralité des processus d’ETL et de mise à disposition de la donnée, et donc de prendre connaissance d’un grand nombre de procédures SQL totalisant près de 15000 lignes de code, sans compter les rapports PowerBI déjà existant et les modèles de données associés parfois très complexes.

Les connaissances en SQL que j’ai acquises pendant la formation se sont avérées cruciales pour aborder sereinement ces sujets, j’ai pu me familiariser rapidement avec ces procédures, le tout en apprenant à maîtriser des outils que je ne connaissais pas encore (SSIS et Power Automate pour ne citer qu’eux).

Et ce que j’ai appris en Python m’est également très utile pour cette migration, Snowflake intégrant de manière native ce langage, beaucoup d’anciens processus seront remplacés par des scripts Python, et mes connaissances me permettent d’être moteur sur ces transitions, ainsi que de fournir de l’aide pour développer ou faire des revues de code.

{{formation-data-analyse="/brouillon"}}

Faites un premier pas dans la data avec nos cours gratuits
Démarrer

Les derniers articles sur ce sujet

Difficulté :
Facile