Date de mise à jour : 12/03/2019 | Identifiant OffreInfo :
14_AF_0000028639
Organisme responsable :
Certyou
Se familiariser avec HDFS et MapReduce et la création de l'architecture Hadoop.
Configuration des clusters et déploiement afin de faciliter l'intégration avec d'autres systèmes et le matériel dans un data center.
Charger les données dans un Cluster à partir des fichiers gérés dynamiquement à l'aide de Flume et à partir de RDBMS à l'aide de Sqoop.
Configurer FairScheduler pour fournir les agréments niveau service pour de multiples utilisateurs d'un cluster.
Installer et mettre en oeuvre la sécurité basée sur Kerberos.
Meilleures pratiques pour préparer et maintenir Apache Hadoop en production.
Dépanner, diagnostiquer, réglages et résolution des problèmes Hadoop.
Le cas d'Hadoop :
-Pourquoi Hadoop ?
-Bref historique de Hadoop
-Composants Hadoop
-Concepts fondamentaux
HDFS :
-Fonctionnalités HDFS
-Ecrire et lire des fichiers
-NameNode
-Vue d'ensemble de la sécurité HDFS
-Utiliser l'interface Web NameNode
-Utiliser le Shell fichiers Hadoop.
Attestation d'acquis ou de compétences;Attestation de suivi de présence
Non certifiante
Sans niveau spécifique
Information fournie par :