Date de mise à jour : 21/11/2023 | Identifiant OffreInfo :
14_AF_0000095373
Organisme responsable :
Data Value
Comprendre le paradigme de la programmation parallèle
Identifier les goulots d'étranglement et les parties parallélisables de votre programme
Avoir une bonne compréhension du paysage des librairies de calcul parallèle disponibles pour Python
Savoir développer des applications parallélisées (multithreading, multiprocessing, calcul distribué, cloud computing)
Exécuter des calculs sur GPU (cartes graphiques)
Créer des workflows de traitement de données
- Etat de l'art de la discipline et concepts de base
Historique des supercalculateurs
Comprendre les différentes architectures disponibles pour le calcul parallèle (CPU, GPU, TPU, ASIC, FPGA, NUMA... )
Tout n'est pas parallélisable : comprendre les limites de la programmation parallèle
Présentation du paysage de calcul parallèle avec Python
Travaux pratiques
Identifier les capacités matérielles de votre ordinateur. Mesurer les performances/limites de votre configuration (disques, mémoire, processeurs, ...).
Configurer son environnement de calcul parallèle.
Administrer une ferme de serveurs avec ansible
- Les concepts de la programmation parallèle
Comprendre la terminologie: programmation asynchrone, concurrente, distribuée, multithreading, multiprocessing, ...
Multithreading : paralléliser le code de votre programme - mise en oeuvre des concepts de base
Comprendre les limites du multithreading en Python
Multiprocessing : paralléliser votre programme sur plusieurs processeurs et mécanismes de synchronisation (verrous, sémaphores, barrières, pools de process...)
Travaux pratiques
Application des concepts de base aux travers d'exercices pratiques.
Mesurer les différences de performances entre les librairies multithreading et multiprocessing.
Premier cluster de calcul distribué avec les Managers et Proxy.
- Le calcul sur GPU
Un GPU ne se programme pas comme un CPU.
Comprendre les architectures GPU : kernels, mémoire, threads, ...
Travailler avec des cartes graphiques externes (eGPU)
Mise en oeuvre des principales librairies Python pour GPU: Cupy, PyCUDA, Numba et RapidsAI
Travaux pratiques
Identifier quand un GPU devient plus intéressant qu'un CPU.
Traitement d'images, calcul matriciel, tester la fiabilité d'un mot de passe, ...
- Calcul distribué
Les principales librairies : Celery, Dask et PySpark
Déployer et superviser un cluster de calcul parallèle avec chacune des librairies
Exécuter des calculs sur un cluster
Travaux pratiques
Batch de tâches avec Celery.
Calcul numérique et analyse de données avec Dask (array et dataframe)
Analyse de données avec les DataFrames Spark et la librairie Koalas.
- Créer un pipeline de traitement de données
Présentation des librairies Luigi et Airflow
Concevoir et superviser son workflow
Travaux pratiques
Réaliser un workflow sur un ensemble de fichiers volumineux et le superviser avec Airflow.
- Tour d'horizon des autres librairies Python pour le calcul parallèle
La compilation Just In Time avec Numba
Greenlets : vers un meilleur multithreading
MPI4Py : Message Passing Interface
Pythran : Le transpileur qui convertit votre code Python en C++
Travaux pratiques
Exercices de base illustrant les principes de chacune des librairies
Attestation d'acquis ou de compétences;Attestation de suivi de présence
Non certifiante
Sans niveau spécifique
Information fournie par :