Dernière mise à jour le 28/10/2024

Hadoop, développer des applications pour le Big Data

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : Big Data
Rubrique : NoSQL et Hadoop
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

 
    • Construire un programme à base de Map Reduce
    • Intégrer Hadoop HBase dans un workflow d'entreprise
    • Travailler avec Apache Hive et Pig depuis HDFS
    • Utiliser un graphe de tâches avec Hadoop
 

Public visé

Concepteurs, développeurs.

Pré-requis

    • Bonne expérience en développement Java.
    • Des connaissances en architecture
    • Web constitue un plus.
 

Programme

Le Big Data
Définition du périmètre du Big Data.
Le rôle du projet Hadoop.
Les concepts de base des projets Big Data.
 
Présentation du Cloud Computing.
Différence entre Cloud Computing privé et public.
Les architectures Big Data à base du projet Hadoop.
Démonstration Usage d'Hadoop et de GoogleApp.  
Collecte de données et application de Map Reduce
Analyse des flux de données dans l'entreprise.
Données structurées et non-structurées.
Les principes de l'analyse sémantique des données d'entreprise.
Graphe des tâches à base de MapReduce.
La granularité de cohérence des données.
Transfert de données depuis un système de persistance dans Hadoop.
Transfert de données d'un Cloud dans Hadoop.
 
Travaux pratiques
Gérer la collecte d'informations clientèles par Map Reduce.
Configuration de l'implémentation YARN.
Développement d'une tâche basée sur Map Reduce.  
Le stockage des données avec HBase
Plusieurs types de base de données XML.
Patterns d'usages et application au Cloud.
Application de Hadoop database au sein d'un workflow.
Utilisation des projets Hive/Pig.
Utilisation du projet HCatalog.
L'API Java HBase.
 
Travaux pratiques
Gérer les modifications d'un catalogue de données fournisseur.  
Le stockage des données sur HDFS Patterns d'usages et application au Cloud.
Architecture et installation d'un système HDFS, journal, NameNode, DataNode.
Opérations, commandes et gestion des commandes.
L'API HDFS Java.
Analyse de données avec Apache Pig.
Le langage Pig Latin.
Utiliser Apache Pig avec Java.
Requêtage avec Apache Hive.
Réplication de données.
Partage de données sur une architecture HDFS.
 
Travaux pratiques
Administrer un référentiel client partagé sur Hadoop.
Utilisation de la console de visualisation.  
Spring Data Hadoop
Introduction à Spring et Spring Data.
Le namespace Hadoop pour Spring.
Utiliser Spring pour simplifier la configuration Hadoop.
Configuration du cache distribué.
Définition des Jobs et dépendance entre Jobs.
Intégration des outils (Pig, Hive…).
 

Modalités

Jusqu'a 8 jours avant le début de la formation, sous condition d'un dossier d'insciption complet

Méthodes

Fin de formation : entretien individuel.
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation.
Assiduité : certificat de réalisation.
Validations des acquis : grille d'evalution  des acquis établie par le formateur en fin de formation.
Code de formation : DB014

Tarifs

Prix public : 2710
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
Le dispositif FNE-Formation.
L’OPCO (opérateurs de compétences) de votre entreprise.
France Travail: sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
CPF -MonCompteFormation
Contactez nous pour plus d’information : contact@aston-institut.com

Lieux & Horaires

Campus : Ensemble des sites

Durée : 28 heures
Délai d'accès :
Jusqu’à 8 jours avant le début de la formation

Distanciel possible : Oui

Prochaines sessions

Cliquez sur la date choisie pour vous inscrire :

  • Inscription au 12 / 11 / 2024
    : Ensemble des sites
    : Distanciel possible
    : 28 heures
    : 4 jours
Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

Big Data

BD030

Elasticsearch : indexation de contenu

A l’issue de la formation, le stagiaire sera capable de mettre en oeuvre une solution de recherche performante de données volumineuses avec ElasticSearch.   Situer Elasticsearch dans un écosystème Big Data Identifier les enjeux et les cas d'utilisation d'un moteur de recherche Appréhender le fonctionnement d'ElasticSearch Savoir installer et configurer ElasticSearch Indexer des volumes importants de données Comprendre comment administrer le système et le surveiller afin de garantir sa disponibilité

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

NE142

DATA ANALYST

Connaître les fondamentaux de Python Maîtriser les bibliothèques Python dédiées à la data science Effectuer de la data visualisation Utiliser les technologies autour de l’analyse données : machine Learning, big data, Business Intelligence (BI)… Comprendre l’extraction et la gestion de données texte

300 heures de formations sur 42 Jours
En savoir plus

Formation continue

Big Data

BD005

Big Data Foundation Certifiant

      • Connaître les fondamentaux du Big Data, ses origines et ses caractéristiques
      • Comprendre ce qu'est le Data Mining
      • Appréhender les technologies les plus populaires du Big Data
      • Préparer et passer l'examen de certification "Big Data Foundation" de l'EXIN
 

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD045

BigData : intégration SQL, Hive, SparkDataFrames

Comprendre les connexions existantes entre les mondes relationnels et NoSQL en environnement Big Data. Savoir mettre en oeuvre Hive et Pig, Impala, les Spark Dataframes.    

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

BD006

Big Data – Mise en oeuvre pratique d’une solution complète d’analyse des données

        • Disposer des compétences techniques nécessaires à la mise en œuvre d'analyses Big Data
        • Comprendre le cadre juridique du stockage et de l'analyse de données
        • Savoir utiliser des outils de collecte opensource
        • Être en mesure de choisir la bonne solution de stockage de données au regard des spécificités d'un projet (OLAP, NoSQL, graph)
Explorer la boite à outils technologique que constitue Hadoop et son écosystème et savoir comment utiliser chaque brique (MapReduce, HIVE, SPARK,…)  

28 heures de formations sur 4 Jours
En savoir plus

Formation continue

Big Data

BD046

BigData supervision: Grafana Kibana Graphite Prometheus

Connaître les outils et mécanismes permettant de superviser des fermes BigData. Identifier les critères de choix.

21 heures de formations sur 3 Jours
En savoir plus