Date de mise à jour : 21/03/2025 | Identifiant OffreInfo :
14_AF_0000076698
Organisme responsable :
Ambient it
Découvrir les nouveautés de la v2 et être capable d'installer et d'utiliser TensorFlow de manière autonome
Comprendre le concept de Deep Learning et être capable de l'utiliser avec TensorFlow
Manipuler des volumes importants de données en utilisant les bonnes pratiques grâce à TensorFlow
Configurer une machine pour runner des modèles de deep learning
Créer un pipeline de données avec data augmentation
Utiliser des modèles pré-construits (estimators) de TensorFlow sur un Dataset
Comprendre la théorie derrière les différents blocs des réseaux de neurones
Construire un réseau de neurones avec TensorFlow
Comprendre la théorie de l'entrainement d'un réseau de neurones
Lancer l'entrainement du réseau
Surveiller et affiner l'entrainement grâce à Tensorboard et à des callbacks
Utiliser des réseaux déjà pré-entraînés pour les appliquer à un cas précis
Appliquer les réseaux de neurones à différents cas d'application
JOURNÉE 1 MATIN : MANIPULATION DE VECTEURS ET TENSEURS AVEC TENSORFLOW
Installation
Installation de Tensorflow
Google Collab
Utiliser Tensorflow comme Numpy
Tenseurs et opérations
Variables
Cas d'usages
Huber Loss
Import d'images
APRÈS-MIDI : CONSTRUIRE UN PIPELINE DE DONNÉES
Tensorflow Data API
Concept de Dataset
Enchaîner les transformations
Shuffle de la donnée
Entrelacement
Création d'un pipeline de lecture de CSV complet
Optimisations
API de prétraitement Tensorflow
Utilité
Colonnes numériques
Colonnes catégorielles
Utilisation en tant que layer
JOURNÉE 2 MATIN : INTRODUCTION AUX RÉSEAUX DE NEURONES AVEC KERAS
Keras
De la biologie aux neurones artificiels
Le neurone biologique
Calculs logiques avec des neurones
Le perceptron
Les MLPs et la rétropropagation
MLPs de régression
MLPs de classification
Implémenter des MLPs avec Tensorflow
Sauvegarder et restaurer un modèle
Utiliser des callbacks
APRÈS-MIDI : ENTRAÎNER DES RÉSEAUX DE NEURONES
Le problème du “Vanishing Gradient”
Réutilisation de modèles pré-entraînés
Optimiseurs plus rapides
Mise en pratique
Création d'un classificateur d'image avec l'API Séquentielle
Création d'une régression avec l'API Séquentielle
Création de modèles complexes avec l'API Fonctionnelle
Optimisation des hyperparamètres
JOURNÉE 3 MATIN : CNN
La vision par ordinateur
L'architecture du cortex visuel
Les couches de convolutions
Les couches de Pooling
Les différentes architectures des réseaux de neurones convolutionnels (CNN)
Data Augmentation
APRÈS-MIDI : TRAVAUX PRATIQUE SUR LES MODÈLES
Implémentation d'un CNN Simple sur TensorFlow
Utilisation de modèles pré-entraînés
Modèles pré-entraînés pour du Transfer Learning
Classification et localisation d'objets
JOURNÉE 4 MATIN : CAS D'APPLICATIONS
Traitement des données séquentielles avec des RNNs et des CNNs
Les neurones et les layers récurrents
Entraîner un RNN
Prédire une série temporelle
Mise en pratique du Natural Language Processing with RNNs
Comment préparer les données textuelles ?
Comment séparer le dataset en de multiples fenêtres ?
Générer du fake Shakespear
Classification de texte : Analyse Sentimentale
APRÈS-MIDI : AUTOENCODERS
Representation Learning et Generative Learning avec des AutoEncodeurs et des GANs
Créer un PCA avec une partie d'AutoEncodeur
Construire un “Stacked Autoencoder” avec TensorFlow
Générer de faux vêtements avec des GANs
Attestation de formation
Non certifiante
Sans niveau spécifique