Chef de projet data et intelligence artificielle

Autre titre inscrit sur demande au RNCP (niveau 7)

[Code Certif Info N°120271]
Type de titre / diplôme
Certification active
Niveau de qualification
7 - Savoirs hautement spécialisés
Sortie
Bac + 5 et plus
Descriptif

La certification « Chef de projet data et IA » (CPDIA) a pour objectif d’être une réponse concrète aux besoins accrus de compétences opérationnelles exprimées par les entreprises.

Le Chef de projet data et intelligence artificielle est un professionnel capable de piloter l’ensemble du cycle de vie d’un projet intégrant des technologies d’IA, depuis le cadrage du besoin jusqu’au déploiement opérationnel de la solution. Il joue un rôle de coordination entre les parties prenantes métier, les experts techniques (data scientists, data engineers, MLOps) et les fonctions support (juridique, cybersécurité, éthique), tout en garantissant la valeur ajoutée des cas d’usage IA pour l’organisation.

Objectif
  • Piloter une veille technologique et réglementaire sur les systèmes d’intelligence artificielle (LLM, IA générative, FinOps/MLOps, sécurité IA…), en mobilisant des outils spécialisés, afin d’anticiper les contraintes techniques, réglementaires et éthiques impactant la conception des solutions IA.
  • Analyser le besoin métier et l’environnement data du client, en mobilisant des méthodes de co-construction ou collaboratives (design thinking, ateliers participatifs), afin d’identifier des cas d’usage IA pertinents et compatibles avec les contraintes techniques, fonctionnelles et réglementaires.
  • Qualifier les sources et typologies de données mobilisables (structurées, non structurées, multimodales, internes, externes, synthétiques), en appliquant des critères de qualité, de volumétrie, de gouvernance et de conformité (RGPD, AI Act, principes OCDE), afin d’évaluer leur exploitabilité dans le cadre du projet IA.
  • Modéliser un cas d’usage IA à partir d’un besoin métier analysé, en priorisant les scénarios selon leur valeur ajoutée, leur faisabilité et leur impact, et en définissant les livrables attendus, objectifs opérationnels et indicateurs de performance (SLA, coût par prédiction…), afin de cadrer la solution cible.
  • Conduire une analyse d'impact éthique, règlementaire et environnementaux des cas d'usage d'IA envisagés, en mobilisant les parties prenantes afin de formaliser les risques (biais, non-conformité, etc.) et de définir des plans d'atténuation.
  • Mettre en place des ateliers de co-construction de la solution IA avec les parties prenantes internes et externes (utilisateurs métier, experts techniques, DPO, RSSI, référents éthiques), en mobilisant des méthodes collaboratives (cartographie des besoins, priorisation des fonctionnalités, matrices d’arbitrage), afin d’aligner les choix fonctionnels et techniques sur les besoins et les exigences de conformité.
  • Évaluer la faisabilité technique des cas d’usage IA sélectionnés en analysant l’adéquation entre les données disponibles (qualité, volumétrie, typologie, gouvernance) et les exigences du projet, afin de formuler des préconisations argumentées sur la viabilité et les conditions de réussite de la solution envisagée.
  • Concevoir l’architecture data cible du projet IA, en sélectionnant les flux de données, les systèmes de gestion adaptés (batch, temps réel, NoSQL, feature stores…) et les exigences associées (sécurité, accessibilité, traçabilité), afin d’assurer la cohérence, la scalabilité et la conformité de l’architecture aux cas d’usage définis.
  • Élaborer un dictionnaire de données et un catalogue de métadonnées associés aux modèles IA, en utilisant des outils de gouvernance adaptés, afin de garantir la traçabilité, la compréhension et la réutilisation des données mobilisées.
  • Formaliser un cahier des charges fonctionnel et technique du projet IA, en intégrant les cas d’usage, objectifs, hypothèses, contraintes réglementaires (AI Act, RGPD), livrables attendus et modalités de mise à l’échelle, afin de cadrer les développements à venir et sécuriser la conception.
  • Sélectionner les données pertinentes issues de sources variées (flux temps réel, API métier, capteurs IoT, données synthétiques), en tenant compte de leur volumétrie, multimodalité et des contraintes de gouvernance, en mobilisant des outils d’intégration (Apache NiFi, Airflow) et en veillant à leur compatibilité avec les environnements de traitement (Jupyter, Databricks, pipelines cloud), afin de constituer un jeu de données exploitable pour un cas d’usage IA donné.
  • Évaluer la qualité, la fiabilité et la conformité des jeux de données (internes, externes, générées par IA), en mobilisant des méthodes de profiling (complétude, cohérence, duplications) et en intégrant les exigences de gouvernance (traçabilité, droits d’accès, documentation) ainsi que les préconisations des référents (DPO, RSSI), afin de garantir leur adéquation avec les cas d’usage IA et leur conformité aux normes réglementaires (RGPD, AI Act).
  • Superviser les étapes de préparation des données (nettoyage, structuration, traitement des valeurs manquantes, encodage) en mobilisant des outils de data processing adaptés (Pandas, Dataiku, Trifacta), afin de produire un dataset exploitable, adapté à la nature des données (texte, image, capteurs IoT) et aux besoins d’entraînement ou d’analyse des modèles.
  • Mettre en œuvre un dispositif de traçabilité, de versioning et de conformité des jeux de données (anonymisation, pseudonymisation, documentation, contrôle d’accès), en s’appuyant sur des outils dédiés (DVC, MLflow, notebooks Jupyter), afin de garantir la reproductibilité des traitements, la transparence des processus et la conformité réglementaire (RGPD, AI Act).
  • Réaliser le feature engineering d’un jeu de données IA, en sélectionnant et générant les variables pertinentes au regard du cas d’usage (variables cibles, explicatives, indicateurs métiers), en mobilisant des outils spécialisés (Pandas, Feast ou Tecton) et des techniques d’explicabilité (SHAP, LIME), afin d’optimiser la performance et l’interprétabilité des modèles.
  • Analyser les données traitées, à l’aide de méthodes statistiques adaptées (analyses univariées, bivariées, séries temporelles) et d’outils de traitement (Python, R, notebooks interactifs), en s’appuyant sur les indicateurs définis pour le cas d’usage IA, afin de mettre en évidence les tendances, patterns et signaux faibles utiles à l’analyse métier.
  • Produire des visualisations dynamiques, lisibles et accessibles (heatmaps, diagrammes, dashboards interactifs) en utilisant des outils dédiés (Power BI, Tableau, Matplotlib Seaborn), afin de faciliter l’interprétation des résultats d’analyse par des profils variés, y compris non techniques.
  • Détecter les biais structurels et représentatifs dans les jeux de données préparés, en mobilisant des frameworks spécialisés (AIF360, Fairlearn) et des analyses de répartition (sur/sous-représentation, corrélations induites), afin d’anticiper les risques d’iniquité, de non-conformité réglementaire ou de dérives algorithmiques lors de la phase de modélisation.
  • Restituer les résultats d’analyse en les adaptant aux profils des parties prenantes (métier, décideurs, conformité), en mobilisant des supports adaptés (dashboards, rapports interactifs, présentations), en intégrant des éléments de vulgarisation, d’accessibilité et de storytelling data, afin de faciliter leur compréhension et leur prise en compte dans les décisions métier.
  • Formuler des recommandations exploitables à partir de l’analyse des données, en intégrant les objectifs métier, les indicateurs ESG, les retours utilisateurs et les limites identifiées, afin d’orienter les décisions stratégiques, les arbitrages ou les ajustements de cas d’usage IA.
  • Définir l’architecture cible pour l’entraînement et le déploiement des modèles IA, en arbitrant entre environnements cloud, edge ou hybrides (AWS SageMaker, Azure ML, Vertex AI), et en sélectionnant les ressources matérielles adaptées (GPU, TPU), afin de répondre aux besoins métier en termes de latence, scalabilité, accessibilité et robustesse.
  • Structurer un environnement de développement IA sécurisé et automatisé, en intégrant des pratiques MLOps (CI/CD/CT), des dispositifs d’Infrastructure as Code (Terraform, Ansible) et des mécanismes de cybersécurité (Zero Trust, journalisation), tout en mobilisant des outils FinOps (CodeCarbon, cost monitors), afin de garantir la traçabilité des déploiements, l’optimisation des ressources et la conformité réglementaire (RGPD, AI Act).
  • Sélectionner les modèles d’IA les plus adaptés à un cas d’usage métier donné (ML supervisé : régression, classification ML non supervisé: recommandation, Deep learning : LLM, Computer Vision, IA génératives), en tenant compte de la nature des données, des objectifs métier, et des contraintes d’interprétabilité, de robustesse et de soutenabilité, afin d’optimiser la performance du modèle et son adéquation aux attentes métier.
  • Concevoir en collaboration avec les équipes data science des modèles d’intelligence artificielle adaptés aux cas d’usage identifiés, en intégrant les principes d’IA responsable (équité, explicabilité, auditabilité) et en mobilisant les outils de documentation et d’interprétabilité (Model Cards, SHAP, LIME), afin de garantir leur robustesse, leur transparence et leur conformité aux exigences réglementaires (AI Act, RGPD).
  • Définir une stratégie d’évaluation des modèles IA, en sélectionnant des métriques adaptées (accuracy, F1-score, biais résiduels, recall) et en analysant les écarts de performance au regard des exigences métier, réglementaires et environnementales, afin de guider les décisions d’optimisation.
  • Évaluer la robustesse et la capacité de généralisation d’un modèle IA après entraînement, en identifiant les signes de surapprentissage (overfitting), de sous-apprentissage (underfitting) ou de biais contextuels, afin de valider sa fiabilité avant son déploiement sur des données réelles.
  • Superviser l’amélioration continue d’un modèle IA en analysant les performances pré-déploiement (biais résiduels, écarts de précision), les indicateurs d’usage (engagement, taux d’adoption) et les impacts métier (ROI, conformité réglementaire), en mobilisant des techniques d’optimisation (tuning, régularisation, ensemble learning) et des outils spécialisés (MLflow, Neptune, Arize), afin de renforcer sa robustesse, son équité et sa conformité aux exigences éthiques et réglementaires.
  • Coordonner l’intégration du modèle IA dans l’environnement applicatif, en pilotant les phases de tests et de validation (fonctionnels, d’interopérabilité, de performance) et en mobilisant les équipes concernées (DevOps, DSI, RSSI), afin d’assurer la compatibilité de la solution avec les systèmes cibles (API, microservices, cloud, edge), dans le respect des normes de sécurité, d’accessibilité et de conformité réglementaire (RGPD, AI Act, Zero Trust).
  • Superviser la production et la validation des livrables associés à la solution IA (guides utilisateurs, documentations API, fiches d’explicabilité), en adaptant les contenus aux profils des destinataires (métiers, techniques, conformité), afin d’assurer la transparence, l’appropriation et la maintenabilité de la solution déployée...
Débouchés

Secteurs d’activités :

Le Chef de projet data et IA intervient dans des organisations très variées, à savoir : startups, PME, ETI, grandes entreprises, cabinets de conseil, ESN et institutions publiques. Sa fonction évolue selon la taille des structures, leur degré de maturité numérique et leur modèle économique (interne ou externalisé). Le périmètre d’intervention et les responsabilités confiées diffèrent sensiblement d’une organisation à l’autre.

Type d'emplois accessibles :

A court terme:

  • Data Analyst
  • Data Scientist junior
  • Data Engineer
  • Consultant IA / data junior
  • Chargé de mission data / IA
  • Product Owner IA / data junior
  • Assistant maîtrise d’ouvrage / Data analyst

A moyen terme:

  • Chef de projet data / Chef de projet Données
  • Chef de projet intelligence artificielle / Chef de projet IA générative
  • Chef de projet Machine Learning / Deep Learning
  • Product Owner IA / Data
  • Data Manager
  • Consultant IA confirmé
  • Responsable de projets data science

A long terme:

  • Directeur de projet IA / Responsable de programme IA
  • Manager d’équipe IA / Lead data & IA
  • Expert IA / Architecte IA
  • Consultant senior en IA / Transformation data
Répertoire National des Certifications Professionnelles (RNCP)
Code RNCP Date Fin Enregistrement Type Enregistrement Actif / Inactif
RNCP41813 18/12/2027 Enregistrement sur demande Actif
Code scolarité
16X32686
Certificateur
  • Doranco espace multimédia
Valideur
  • Doranco espace multimédia
    1ère habilitation Début validité Fin validité
    18/12/2025 18/12/2027
Session de l'examen
Année de la première session Année de la dernière session
Domaines de formation (Formacode® V14)
  • 31094 : Gestion projet informatique
  • 31023 : Gestion données massives
  • 31028 : Intelligence artificielle
Liens vers les métiers (ROME)
  • M1802 - Expertise et support en systèmes d'information
  • M1803 - Direction des systèmes d'information
  • M1805 - Études et développement informatique
Codes NSF
  • 326 P : Administration réseaux, base de données, webmestres
  • 326 T : Programmation, mise en place de logiciels
Accessibilité
Formation initiale Formation continue Apprentissage Contrat de pro VAE ou par expérience Demande individuelle
Texte officiel
Publication : 18/12/2025
Descriptif : Décisions d'enregistrement aux répertoires nationaux (décembre 2025) - jeudi 18 décembre - Suite aux avis conformes de la commission de la Certification professionnelle portant sur des demandes d'enregistrement, avis produits lors de la séance du 17 décembre 2025, le Directeur général de France compétences a procédé à des décisions d'enregistrement aux répertoires nationaux. Ces décisions sont publiées sur le site de France compétences et seront ultérieurement publiées au journal officiel de la République française.
URL hypertexte JO : Ouvrir le lien dans un nouvel onglet
Informations mises à jour le 22/01/2026 par Certif Info.