Dernière mise à jour le 12/12/2024

Hadoop Hortonworks : administration avec Ambari

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : Big Data
Rubrique : NoSQL et Hadoop
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

Connaître les principes du framework Hadoop et savoir l'installer, le configurer et l'administrer avec Ambari (tableaux de bord, supervision, gestion des services, etc ...)

Public visé

Chefs de projet, administrateurs et toute personne souhaitant mettre en oeuvre un système distribué avec Hadoop.Les travaux pratiques sont réalisés sur une distribution Hadoop Hortonworks.

Pré-requis

Connaissance des commandes des systèmes unix/linux et des bases TCP/IP

Programme

Introduction
Les fonctionnalités du framework Hadoop.  
Les différentes versions.
Distributions : Apache, Cloudera, Hortonworks, EMR, MapR, DES.
Spécificités de chaque distribution.
Architecture et principe de fonctionnement.
Terminologie : NameNode, DataNode, ResourceManager, NodeManager.
Rôle des différents composants.
Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce Oozie, Pig, Hive, Hbase, …  
 
Les outils Hadoop  
Infrastructure/Mise en œuvre : Avro, Ambari, Zookeeper, Pig, Tez, Oozie, Falcon, Pentaho
Vue d'ensemble Gestion des données.
Exemple de sqoop.
Restitution : webhdfs, hive, Hawq, Mahout,ElasticSearch ..
Outils complémentaires : Spark, SparkQL, SparkMLib, Storm, BigTop, Zebra de développement : Cascading, Scalding, Flink/Pachyderm d'analyse : Rhadoop, Hama, Chukwa, kafka  
 
Installation et configuration
Trois modes d'installation : local, pseudo-distribué, distribué
Première installation.
Mise en œuvre avec un seul nœud Hadoop.
Configuration de l'environnement, étude des fichiers de configuration :  core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml et capacity-scheduler.xml
Création des users pour les daemons hdfs et yarn,droits d'accès sur les exécutables et répertoires.
Lancement des services.  
Démarrage des composants : hdfs, hadoop-daemon, yarn-daemon, etc ..
Gestion de la grappe, différentes méthodes : ligne de commandes, API Rest, serveur http intégré, APIS natives
Exemples en ligne de commandes avec hdfs, yarn, mapred
Présentation des fonctions offertes par le serveur http
Travaux pratiques : Organisation et configuration d'une grappe hadoop  
 
Administration Hadoop  
Outils complémentaires à yarn et hdfs : jConsole, jconsole yarn
Exemples sur le suivi de charges, l'analyse des journaux.
Principe de gestion des nœuds, accès JMX.
Travaux pratiques :  mise en œuvre d'un client JMX
Administration HDFS : présentation des outils de stockage des fichiers, fsck, dfsadmin
Mise en œuvre sur des exemples simples de récupération de fichiers
Gestion centralisée de caches avec Cacheadmin
Déplacement d'un NameNode.
Mise en mode maintenance.  
 
Haute disponibilité  
Mise en place de la haute disponibilité sur une distribution Ambari.
Travaux pratiques : Passage d'un système HDFS en mode HA  
 
Sécurité  
Mécanismes de sécurité et mise en œuvre pratique : Activation de la sécurité avec Kerberos dans core-site.xml, et dans hdfs-site.xml pour les NameNode et DataNode.
Sécurisation de yarn avec la mise en œuvre d'un proxy et d'un Linux Container Executor.
Travaux pratiques : Mise en place de la sécurité Kerberos sur une distribution Ambari.
Création des utilisateurs.
Travaux sur les droits d'accès et les droits d'exécution.
Impact au niveau des files Yarn, Oozie et Tez.  
 
Exploitation  
Installation d'une grappe Hadoop avec Ambari.
Tableau de bord.
Lancement des services.
Principe de la supervision des éléments par le NodeManager.  
Monitoring graphique avec Ambari.
Présentation de Ganglia,Kibana
Travaux pratiques : Visualisation des alertes en cas d'indisponibilité d'un nœud.  
Configuration des logs avec log4j.
 

Modalités

Modalités : en présentiel, distanciel ou mixte . Toutes les formations sont en présentiel par défaut mais les salles sont équipées pour faire de l'hybride. – Horaires de 9H à 12H30 et de 14H à 17H30 soit 7H – Intra et Inter entreprise.
Pédagogie : essentiellement participative et ludique, centrée sur l’expérience, l’immersion et la mise en pratique. Alternance d’apports théoriques et d’outils pratiques.
Ressources techniques et pédagogiques : Support de formation au format PDF ou PPT Ordinateur, vidéoprojecteur, Tableau blanc, Visioconférence : Cisco Webex / Teams / Zoom.
Pendant la formation : mises en situation, autodiagnostics, travail individuel ou en sous-groupe sur des cas réels.

Méthodes

Fin de formation : entretien individuel.
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation.
Assiduité : certificat de réalisation.
Validations des acquis : grille d'evalution  des acquis établie par le formateur en fin de formation.
Code de formation : BD016

Tarifs

Prix public : 2010
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
Le dispositif FNE-Formation.
L’OPCO (opérateurs de compétences) de votre entreprise.
France Travail: sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
CPF -MonCompteFormation
Contactez nous pour plus d’information : contact@aston-institut.com

Lieux & Horaires

Durée : 21 heures
Délai d'accès : Jusqu'a 8 jours avant le début de la formation, sous condition d'un dossier d'insciption complet

Prochaines sessions

Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

Big Data

NE080

Big Data – Spark pour les développeurs

Découvrir les concepts clés du Big Data Comprendre l'écosystème technologique d'un projet Big Data Evaluer les techniques de gestion des flux de données massives Implémenter des modèles d'analyses statistiques pour répondre aux besoins métiers Découvrir les outils de Data Visualisation

28 heures de formations sur 4 Jours
En savoir plus

Formation continue

Big Data

BD004

Big Data – Enjeux et perspectives

        • Disposer d'une vision claire du Big Data et de ses enjeux
        • Connaître les concepts sous-jacents
        • Comprendre comment les entreprises les plus avancées, dans tous les secteurs économiques, ont mis en place et tiré profit de projets Big Data
        • Connaitre les informations essentielles pour lancer une initiative Big Data
        • Connaitre l'écosystème, et les principales technologies et solutions associées au Big Data
        • Savoir mesurer les impacts de tels projets sur l'entreprise et son organisation
 

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

BD045

BigData : intégration SQL, Hive, SparkDataFrames

Comprendre les connexions existantes entre les mondes relationnels et NoSQL en environnement Big Data. Savoir mettre en oeuvre Hive et Pig, Impala, les Spark Dataframes.    

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

BD005

Big Data Foundation Certifiant

      • Connaître les fondamentaux du Big Data, ses origines et ses caractéristiques
      • Comprendre ce qu'est le Data Mining
      • Appréhender les technologies les plus populaires du Big Data
      • Préparer et passer l'examen de certification "Big Data Foundation" de l'EXIN
 

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD046

BigData supervision: Grafana Kibana Graphite Prometheus

Connaître les outils et mécanismes permettant de superviser des fermes BigData. Identifier les critères de choix.

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD006

Big Data – Mise en oeuvre pratique d’une solution complète d’analyse des données

        • Disposer des compétences techniques nécessaires à la mise en œuvre d'analyses Big Data
        • Comprendre le cadre juridique du stockage et de l'analyse de données
        • Savoir utiliser des outils de collecte opensource
        • Être en mesure de choisir la bonne solution de stockage de données au regard des spécificités d'un projet (OLAP, NoSQL, graph)
Explorer la boite à outils technologique que constitue Hadoop et son écosystème et savoir comment utiliser chaque brique (MapReduce, HIVE, SPARK,…)  

28 heures de formations sur 4 Jours
En savoir plus