Dernière mise à jour le 24/11/2024

Spark, développer des applications pour le Big Data

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : Big Data
Rubrique : Hive - Spark
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

A l’issue de la formation, le stagiaire sera capable de maîtriser le framework Spark pour traiter des données hétérogènes et optimiser les calculs.
 
Maîtriser les concepts fondamentaux de Spark
Savoir intégrer Spark dans un environnement Hadoop
Développer des applications d’analyse en temps réel avec Spark Streaming
Faire de la programmation parallèle avec Spark sur un cluster
Manipuler des données avec Spark SQL
Avoir une première approche du Machine Learning

Public visé

Chefs de projet, Data Scientists, Développeurs, Architectes…

Pré-requis

Avoir des connaissances de Java ou Python et des notions de calculs statistiques

Programme

Maîtriser les concepts fondamentaux de Spark
Présentation Spark, origine du projet,apports, principe de fonctionnement. Langages supportés.
Modes de fonctionnement : batch/Streaming.
Bibliothèques : Machine Learning, IA
Mise en oeuvre sur une architecture distribuée. Architecture : clusterManager, driver, worker, ...
Architecture : SparkContext, SparkSession, Cluster Manager, Executor sur chaque noeud. Définitions : Driver program, Cluster manager, deploy mode, Executor, Task, Job
 
Savoir intégrer Spark dans un environnement Hadoop
Intégration de Spark avec HDFS, HBase,
Création et exploitation d'un cluster Spark/YARN. Intégration de données sqoop, kafka, flume vers une architecture Hadoop et traitements par Spark.
Intégration de données AWS S3.
Différents cluster managers : Spark interne, avec Mesos, avec Yarn, avec Amazon EC2
 
Atelier : Mise en oeuvre avec Spark sur Hadoop HDFS et Yarn. Soumission de jobs, supervision depuis l'interface web
 
Développer des applications d’analyse en temps réel avec Spark Streaming
Objectifs , principe de fonctionnement: stream processing. Source de données : HDFS, Flume, Kafka, ...
Notion de StreamingContext, DStreams, démonstrations.
 
Atelier : traitement de flux DStreams en Scala. Watermarking. Gestion des micro-batches.
 
Intégration de Spark Streaming avec Kafka
 
Atelier : mise en oeuvre d'une chaîne de gestion de données en flux tendu : IoT, Kafka, SparkStreaming, Spark. Analyse des données au fil de l'eau.
 
Faire de la programmation parallèle avec Spark sur un cluster
Utilisation du shell Spark avec Scala ou Python. Modes de fonctionnement. Interprété, compilé.
Utilisation des outils de construction. Gestion des versions de bibliothèques.
 
Atelier : Mise en pratique en Java, Scala et Python. Notion de contexte Spark. Extension aux sessions Spark.
 
Manipuler des données avec Spark SQL
Spark et SQL
Traitement de données structurées. L'API Dataset et DataFrames
Jointures. Filtrage de données, enrichissement. Calculs distribués de base. Introduction aux traitements de données avec map/reduce.
Lecture/écriture de données : Texte, JSon, Parquet, HDFS, fichiers séquentiels.
Optimisation des requêtes. Mise en oeuvre des Dataframes et DataSet. Compatibilité Hive
 
Atelier : écriture d'un ETL entre HDFS et HBase
 
Atelier : extraction, modification de données dans une base distribuée. Collections de données distribuées. Exemples.
 
Support Cassandra
Description rapide de l'architecture Cassandra. Mise en oeuvre depuis Spark. Exécution de travaux Spark s'appuyant sur une grappe Cassandra.
 
Spark GraphX
Fourniture d'algorithmes, d'opérateurs simples pour des calculs statistiques sur les graphes
 
Atelier : exemples d'opérations sur les graphes.
 
Avoir une première approche du Machine Learning
Machine Learning avec Spark, algorithmes standards supervisés et non-supervisés (RandomForest, LogisticRegression, KMeans, ...)
Gestion de la persistance, statistiques.
Mise en oeuvre avec les DataFrames.
 
Atelier : mise en oeuvre d'une régression logistique sur Spark
 

Modalités

Jusqu'a 8 jours avant le début de la formation, sous condition d'un dossier d'insciption complet

Méthodes

Fin de formation : entretien individuel.
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation.
Assiduité : certificat de réalisation.
Validations des acquis : grille d'evalution  des acquis établie par le formateur en fin de formation.
Code de formation : BD021

Tarifs

Prix public : 1990
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
Le dispositif FNE-Formation.
L’OPCO (opérateurs de compétences) de votre entreprise.
France Travail: sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
CPF -MonCompteFormation
Contactez nous pour plus d’information : contact@aston-institut.com

Lieux & Horaires

Campus : Ensemble des sites

Durée : 21 heures
Délai d'accès :
Jusqu’à 8 jours avant le début de la formation

Distanciel possible : Oui

Prochaines sessions

Cliquez sur la date choisie pour vous inscrire :

  • Inscription au 27 / 11 / 2024
    : Ensemble des sites
    : Distanciel possible
    : 21 heures
    : 3 jours
Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

Big Data

BD019

Développer des applications pour Spark avec Hadoop Cloudera avec Certification

    • Identifier et utiliser les outils appropriés à chaque situation dans un écosystème hadoop
    • Utiliser Apache Spark et l'intégrer dans l'écosystème hadoop
    • Utiliser Sqoop, Kafka, Flume, Hive et Impala
 

28 heures de formations sur 4 Jours
En savoir plus

Formation continue

Big Data

NSQLCAA

NoSQL – Apache Cassandra, mise en œuvre et administration

#actioncollective #NoSQL  #Apache #Cassandra  

A l’issue de la formation, le stagiaire sera capable d’installer et d’administrer des bases de données sous la solution NoSQL Apache Cassandra. Découvrir l'architecture de NoSQL Apache Cassandra et ses apports par rapport aux autres solutions Installer et configurer le SGBD NoSQL Apache Cassandra Administrer et sécuriser un cluster Cassandra Appréhender le CQL (Cassandra Query Language) Créer une base de données et manipuler ses objets Connaitre la notion de grappe au sein de la base de données      

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD020

ElasticStack : présentation

Comprendre le fonctionnement et les apports d'Elastic Stack et de ses composants (Elasticsearch, Logstash, Kibana, Beats) dans le traitement des données..

7 heures de formations sur 1 Jours
En savoir plus

Formation continue

Big Data

BDRN102

Hadoop Cloudera : administration

Connaître les principes du framework Hadoop et savoir l'installer et le configurer. Maitriser la configuration et la gestion des services avec Cloudera Manager   

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD001

Bigdata : architecture et technologies

Comprendre les concepts du BigData et savoir quelles sont les technologies implémentées.

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

BD022

Elastic Stack pour administrateurs

Comprendre le fonctionnement d'Elasticsearch, savoir l'installer et le configurer, gérer la sécurité avec X-Pack, et installer / configurer kibana pour le mapping sur les données Elasticsearch.

14 heures de formations sur 2 Jours
En savoir plus