Dernière mise à jour le 25/11/2024

Hadoop Cloudera : administration

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : Big Data
Rubrique : NoSQL et Hadoop
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

Connaître les principes du framework Hadoop et savoir l'installer et le configurer.
Maitriser la configuration et la gestion des services avec Cloudera Manager
  

Public visé

Chefs de projet, administrateurs et toute personne souhaitant mettre en oeuvre un système distribué avec Hadoop.
Les travaux pratiques sont réalisés sur une distribution Hadoop Cloudera
 

Pré-requis

Connaissance des commandes des systèmes unix/linux.
 

Programme

            Introduction
        • Les fonctionnalités du framework Hadoop. Les différentes versions.
        • Distributions : Apache, Cloudera, Hortonworks, EMR, MapR, DSE.
        • Spécificités de chaque distribution.
        • Architecture et principe de fonctionnement.
        • Terminologie : NameNode, DataNode, ResourceManager, NodeManager. Rôle des différents composants.
        • Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce, Hue, Oozie, Hive, HBase,Zeppelin, ...
 
Les outils Hadoop
        • Infrastructure/mise en oeuvre : Avro, Ambari, Zookeeper, Tez, Oozie. Vue d'ensemble. Gestion des données.
        • Exemple de sqoop.
        • Restitution : webhdfs, hive, Hawq, Mahout, ElasticSearch, ...
        • Outils complémentaires de traitement : Spark, SparkQL, Spark/ML, Storm, BigTop, Zebra; de développement : Cascading, Scalding, Flink; d'analyse : RHadoop, Hama, Chukwa, kafka
 
Installation et configuration
        • Présentation de Cloudera Manager.
        • Installation en mode distribué.
        • Configuration de l'environnement,étude des fichiers de configuration : core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml et capacity-scheduler.xml
        • Création des utilisateurs pour les daemons hdfs et yarn, droits d'accès sur les exécutables et répertoires.
        • Lancement des services. Démarrage des composants : hdfs, hadoop-daemon, yarn-daemon, ...
        • Gestion de la grappe, différentes méthodes : ligne de commandes, API Rest, serveur http intégré, APIS natives
        • Exemples en ligne de commandes avec hdfs, yarn, mapred. Présentation des fonctions offertes par le serveur http
 
Atelier : organisation et configuration d'une grappe hadoop avec Cloudera
Manager
        • Traitement de données. Requêtage SQL avec Hive et Impala.
 
         Administration Hadoop
        • Outils complémentaires à yarn et hdfs : jConsole, jconsole yarn. Exemples sur le suivi de charges, l'analyse des journaux.
        • Principe de gestion des noeuds.
        • Principe des accès JMX. Démonstration avec Prométheus.
        • Administration HDFS : présentation des outils de stockage des fichiers, fsck, dfsadmin
        • Mise en oeuvre sur des exemples simples de récupération de fichiers. Gestion centralisée de caches avec Cacheadmin.
        • Gestion de la file d'attente, paramétrage, capacity-scheduler.
 
         Haute disponibilité
        • Mise en place de la haute disponibilité sur une distribution Cloudera.
 
Atelier : passage d'un système HDFS en mode HA
 
        • Explication d'une fédération de cluster Hadoop. Intérêts.
 
   Sécurité
        • Mécanismes de sécurité et mise en oeuvre pratique de la sécurité avec Kerberos.
 
Atelier : mise en place de la sécurité Kerberos sur une distribution
Cloudera. Création des utilisateurs. Travaux sur les droits d'accès
et les droits d'exécution. Impact au niveau des files Yarn.
 
           Exploitation
        • Installation d'une grappe Hadoop.
        • Lancement des services.
        • Principe de la supervision des éléments par le NodeManager.
        • Monitoring graphique avec Cloudera Manager.
 
Atelier : Visualisation des alertes en cas d'indisponibilité d'un noeud.
 
        • Configuration des logs avec log4j
 
 
 
 
 
 
 
 
 
 
 
 

Modalités

Jusqu'a 8 jours avant le début de la formation, sous condition d'un dossier d'insciption complet

Méthodes

Fin de formation : entretien individuel.
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation.
Assiduité : certificat de réalisation.
Validations des acquis : grille d'evalution  des acquis établie par le formateur en fin de formation.
Code de formation : BDRN102

Tarifs

Prix public : 2080
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
Le dispositif FNE-Formation.
L’OPCO (opérateurs de compétences) de votre entreprise.
France Travail: sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
CPF -MonCompteFormation
Contactez nous pour plus d’information : contact@aston-institut.com

Lieux & Horaires

Durée : 21 heures
Délai d'accès :
8 jours avant le début de la formation
 

Prochaines sessions

Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

Big Data

BD007

Big Data – Les fondamentaux de l’analyse des données

    • Comprendre le rôle stratégique de la gestion des données pour l'entreprise
    • Identifier ce qu'est la donnée, et en quoi consiste le fait d'assurer la qualité de données
    • Synthétiser le cycle de vie de la donnée
    • Assurer l'alignement des usages métiers avec le cycle de vie de la donnée
    • Découvrir les bonnes pratiques en matière de contrôle de qualité des données
    • Assurer la mise en œuvre de la gouvernance de la donnée
 

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD060

Python avancé pour data-scientists

Savoir utiliser les principaux outils de traitement et d'analyse de données pour Python, savoir extraire des données d'un fichier et les manipuler, mettre en place un modèle d'apprentissage simple. Savoir utiliser les principaux outils de traitement et d'analyse de données pour Python Savoir appliquer les pratiques optimales en matière de nettoyage et de préparation des données avant l'analyse Être capable d'extraire des données d'un fichier Comprendre les mécanismes d'interconnexion aux bases de données Comprendre les principaux outils de traitement et d'analyse de données pour Python

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD0103

Les fondamentaux de l’analyse statistique avec R

Savoir installer R Comprendre comment manipuler des données avec R Savoir importer et exporter des données Être en mesure de réaliser des analyses statistiques basiques avec R Savoir restituer des résultats à l'aide de graphiques

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BDP05

Visualisation avancée de données avec Python

Savoir traiter les données scientifiques brutes pour leur visualisation Savoir utiliser les librairies graphiques de python pour visualiser des données Graphiques spécifiques : graphes dynamiques, cartographie

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

BD016

Hadoop Hortonworks : administration avec Ambari

Connaître les principes du framework Hadoop et savoir l'installer, le configurer et l'administrer avec Ambari (tableaux de bord, supervision, gestion des services, etc ...)

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

DB014

Hadoop, développer des applications pour le Big Data

 

    • Construire un programme à base de Map Reduce
    • Intégrer Hadoop HBase dans un workflow d'entreprise
    • Travailler avec Apache Hive et Pig depuis HDFS
    • Utiliser un graphe de tâches avec Hadoop
 

28 heures de formations sur 4 Jours
En savoir plus