Dernière mise à jour le 24/11/2024

Hadoop, développer des applications pour le Big Data

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : Big Data
Rubrique : NoSQL et Hadoop
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

 
    • Construire un programme à base de Map Reduce
    • Intégrer Hadoop HBase dans un workflow d'entreprise
    • Travailler avec Apache Hive et Pig depuis HDFS
    • Utiliser un graphe de tâches avec Hadoop
 

Public visé

Concepteurs, développeurs.

Pré-requis

    • Bonne expérience en développement Java.
    • Des connaissances en architecture
    • Web constitue un plus.
 

Programme

Le Big Data
Définition du périmètre du Big Data.
Le rôle du projet Hadoop.
Les concepts de base des projets Big Data.
 
Présentation du Cloud Computing.
Différence entre Cloud Computing privé et public.
Les architectures Big Data à base du projet Hadoop.
Démonstration Usage d'Hadoop et de GoogleApp.  
Collecte de données et application de Map Reduce
Analyse des flux de données dans l'entreprise.
Données structurées et non-structurées.
Les principes de l'analyse sémantique des données d'entreprise.
Graphe des tâches à base de MapReduce.
La granularité de cohérence des données.
Transfert de données depuis un système de persistance dans Hadoop.
Transfert de données d'un Cloud dans Hadoop.
 
Travaux pratiques
Gérer la collecte d'informations clientèles par Map Reduce.
Configuration de l'implémentation YARN.
Développement d'une tâche basée sur Map Reduce.  
Le stockage des données avec HBase
Plusieurs types de base de données XML.
Patterns d'usages et application au Cloud.
Application de Hadoop database au sein d'un workflow.
Utilisation des projets Hive/Pig.
Utilisation du projet HCatalog.
L'API Java HBase.
 
Travaux pratiques
Gérer les modifications d'un catalogue de données fournisseur.  
Le stockage des données sur HDFS Patterns d'usages et application au Cloud.
Architecture et installation d'un système HDFS, journal, NameNode, DataNode.
Opérations, commandes et gestion des commandes.
L'API HDFS Java.
Analyse de données avec Apache Pig.
Le langage Pig Latin.
Utiliser Apache Pig avec Java.
Requêtage avec Apache Hive.
Réplication de données.
Partage de données sur une architecture HDFS.
 
Travaux pratiques
Administrer un référentiel client partagé sur Hadoop.
Utilisation de la console de visualisation.  
Spring Data Hadoop
Introduction à Spring et Spring Data.
Le namespace Hadoop pour Spring.
Utiliser Spring pour simplifier la configuration Hadoop.
Configuration du cache distribué.
Définition des Jobs et dépendance entre Jobs.
Intégration des outils (Pig, Hive…).
 

Modalités

Jusqu'a 8 jours avant le début de la formation, sous condition d'un dossier d'insciption complet

Méthodes

Fin de formation : entretien individuel.
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation.
Assiduité : certificat de réalisation.
Validations des acquis : grille d'evalution  des acquis établie par le formateur en fin de formation.
Code de formation : DB014

Tarifs

Prix public : 2710
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
Le dispositif FNE-Formation.
L’OPCO (opérateurs de compétences) de votre entreprise.
France Travail: sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
CPF -MonCompteFormation
Contactez nous pour plus d’information : contact@aston-institut.com

Lieux & Horaires

Durée : 28 heures
Délai d'accès :
Jusqu’à 8 jours avant le début de la formation

Prochaines sessions

Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

Big Data

BD019

Développer des applications pour Spark avec Hadoop Cloudera avec Certification

    • Identifier et utiliser les outils appropriés à chaque situation dans un écosystème hadoop
    • Utiliser Apache Spark et l'intégrer dans l'écosystème hadoop
    • Utiliser Sqoop, Kafka, Flume, Hive et Impala
 

28 heures de formations sur 4 Jours
En savoir plus

Formation continue

Big Data

NSQLCAA

NoSQL – Apache Cassandra, mise en œuvre et administration

#actioncollective #NoSQL  #Apache #Cassandra  

A l’issue de la formation, le stagiaire sera capable d’installer et d’administrer des bases de données sous la solution NoSQL Apache Cassandra. Découvrir l'architecture de NoSQL Apache Cassandra et ses apports par rapport aux autres solutions Installer et configurer le SGBD NoSQL Apache Cassandra Administrer et sécuriser un cluster Cassandra Appréhender le CQL (Cassandra Query Language) Créer une base de données et manipuler ses objets Connaitre la notion de grappe au sein de la base de données      

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD020

ElasticStack : présentation

Comprendre le fonctionnement et les apports d'Elastic Stack et de ses composants (Elasticsearch, Logstash, Kibana, Beats) dans le traitement des données..

7 heures de formations sur 1 Jours
En savoir plus

Formation continue

Big Data

BDRN102

Hadoop Cloudera : administration

Connaître les principes du framework Hadoop et savoir l'installer et le configurer. Maitriser la configuration et la gestion des services avec Cloudera Manager   

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD001

Bigdata : architecture et technologies

Comprendre les concepts du BigData et savoir quelles sont les technologies implémentées.

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

BD021

Spark, développer des applications pour le Big Data

A l’issue de la formation, le stagiaire sera capable de maîtriser le framework Spark pour traiter des données hétérogènes et optimiser les calculs.   Maîtriser les concepts fondamentaux de Spark Savoir intégrer Spark dans un environnement Hadoop Développer des applications d’analyse en temps réel avec Spark Streaming Faire de la programmation parallèle avec Spark sur un cluster Manipuler des données avec Spark SQL Avoir une première approche du Machine Learning

21 heures de formations sur 3 Jours
En savoir plus