Dernière mise à jour le 16/07/2024

Spark, développer des applications pour le Big Data

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : Big Data
Rubrique : Hive - Spark
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

A l’issue de la formation, le stagiaire sera capable de maîtriser le framework Spark pour traiter des données hétérogènes et optimiser les calculs.
 
Maîtriser les concepts fondamentaux de Spark
Savoir intégrer Spark dans un environnement Hadoop
Développer des applications d’analyse en temps réel avec Spark Streaming
Faire de la programmation parallèle avec Spark sur un cluster
Manipuler des données avec Spark SQL
Avoir une première approche du Machine Learning

Public visé

Chefs de projet, Data Scientists, Développeurs, Architectes…

Pré-requis

Avoir des connaissances de Java ou Python et des notions de calculs statistiques

Programme

Maîtriser les concepts fondamentaux de Spark
Présentation Spark, origine du projet,apports, principe de fonctionnement. Langages supportés.
Modes de fonctionnement : batch/Streaming.
Bibliothèques : Machine Learning, IA
Mise en oeuvre sur une architecture distribuée. Architecture : clusterManager, driver, worker, ...
Architecture : SparkContext, SparkSession, Cluster Manager, Executor sur chaque noeud. Définitions : Driver program, Cluster manager, deploy mode, Executor, Task, Job
 
Savoir intégrer Spark dans un environnement Hadoop
Intégration de Spark avec HDFS, HBase,
Création et exploitation d'un cluster Spark/YARN. Intégration de données sqoop, kafka, flume vers une architecture Hadoop et traitements par Spark.
Intégration de données AWS S3.
Différents cluster managers : Spark interne, avec Mesos, avec Yarn, avec Amazon EC2
 
Atelier : Mise en oeuvre avec Spark sur Hadoop HDFS et Yarn. Soumission de jobs, supervision depuis l'interface web
 
Développer des applications d’analyse en temps réel avec Spark Streaming
Objectifs , principe de fonctionnement: stream processing. Source de données : HDFS, Flume, Kafka, ...
Notion de StreamingContext, DStreams, démonstrations.
 
Atelier : traitement de flux DStreams en Scala. Watermarking. Gestion des micro-batches.
 
Intégration de Spark Streaming avec Kafka
 
Atelier : mise en oeuvre d'une chaîne de gestion de données en flux tendu : IoT, Kafka, SparkStreaming, Spark. Analyse des données au fil de l'eau.
 
Faire de la programmation parallèle avec Spark sur un cluster
Utilisation du shell Spark avec Scala ou Python. Modes de fonctionnement. Interprété, compilé.
Utilisation des outils de construction. Gestion des versions de bibliothèques.
 
Atelier : Mise en pratique en Java, Scala et Python. Notion de contexte Spark. Extension aux sessions Spark.
 
Manipuler des données avec Spark SQL
Spark et SQL
Traitement de données structurées. L'API Dataset et DataFrames
Jointures. Filtrage de données, enrichissement. Calculs distribués de base. Introduction aux traitements de données avec map/reduce.
Lecture/écriture de données : Texte, JSon, Parquet, HDFS, fichiers séquentiels.
Optimisation des requêtes. Mise en oeuvre des Dataframes et DataSet. Compatibilité Hive
 
Atelier : écriture d'un ETL entre HDFS et HBase
 
Atelier : extraction, modification de données dans une base distribuée. Collections de données distribuées. Exemples.
 
Support Cassandra
Description rapide de l'architecture Cassandra. Mise en oeuvre depuis Spark. Exécution de travaux Spark s'appuyant sur une grappe Cassandra.
 
Spark GraphX
Fourniture d'algorithmes, d'opérateurs simples pour des calculs statistiques sur les graphes
 
Atelier : exemples d'opérations sur les graphes.
 
Avoir une première approche du Machine Learning
Machine Learning avec Spark, algorithmes standards supervisés et non-supervisés (RandomForest, LogisticRegression, KMeans, ...)
Gestion de la persistance, statistiques.
Mise en oeuvre avec les DataFrames.
 
Atelier : mise en oeuvre d'une régression logistique sur Spark
 

Modalités

Modalités : en présentiel, distanciel ou mixte – Horaires de 9H à 12H30 et de 14H à 17H30 soit 7H – Intra et Inter entreprise
Pédagogie : essentiellement participative et ludique, centrée sur l’expérience, l’immersion et la mise en pratique. Alternance d’apports théoriques et d’outils pratiques.
Ressources techniques et pédagogiques : Support de formation au format PDF ou PPT Ordinateur, vidéoprojecteur, Tableau blanc, Visioconférence : Cisco Webex / Teams / Zoom
Pendant la formation : mises en situation, autodiagnostics, travail individuel ou en sous-groupe sur des cas réels

Méthodes

Fin de formation : entretien individuel
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation
Assiduité : certificat de réalisation (validation des acquis)
Code de formation : BD021

Tarifs

Prix public : 1990
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
  • Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
  • Le dispositif FNE-Formation.
  • L’OPCO (opérateurs de compétences) de votre entreprise.
  • Pôle Emploi sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
  • CPF -MonCompteFormation
Contactez nous pour plus d’information

Lieux & Horaires

Campus : Ensemble des sites

Durée : 21 heures
Délai d'accès :
Jusqu’à 8 jours avant le début de la formation

Distanciel possible : Oui

Prochaines sessions

Cliquez sur la date choisie pour vous inscrire :

  • Inscription au 28 / 08 / 2024
    : Ensemble des sites
    : Distanciel possible
    : 21 heures
    : 3 jours
  • Inscription au 27 / 11 / 2024
    : Ensemble des sites
    : Distanciel possible
    : 21 heures
    : 3 jours
Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

Big Data

BD005

Big Data Foundation Certifiant

      • Connaître les fondamentaux du Big Data, ses origines et ses caractéristiques
      • Comprendre ce qu'est le Data Mining
      • Appréhender les technologies les plus populaires du Big Data
      • Préparer et passer l'examen de certification "Big Data Foundation" de l'EXIN
 

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD046

BigData supervision: Grafana Kibana Graphite Prometheus

Connaître les outils et mécanismes permettant de superviser des fermes BigData. Identifier les critères de choix.

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD006

Big Data – Mise en oeuvre pratique d’une solution complète d’analyse des données

        • Disposer des compétences techniques nécessaires à la mise en œuvre d'analyses Big Data
        • Comprendre le cadre juridique du stockage et de l'analyse de données
        • Savoir utiliser des outils de collecte opensource
        • Être en mesure de choisir la bonne solution de stockage de données au regard des spécificités d'un projet (OLAP, NoSQL, graph)
Explorer la boite à outils technologique que constitue Hadoop et son écosystème et savoir comment utiliser chaque brique (MapReduce, HIVE, SPARK,…)  

28 heures de formations sur 4 Jours
En savoir plus

Formation continue

Big Data

BD060

Python avancé pour data-scientists

Savoir utiliser les principaux outils de traitement et d'analyse de données pour Python, savoir extraire des données d'un fichier et les manipuler, mettre en place un modèle d'apprentissage simple. Savoir utiliser les principaux outils de traitement et d'analyse de données pour Python Savoir appliquer les pratiques optimales en matière de nettoyage et de préparation des données avant l'analyse Être capable d'extraire des données d'un fichier Comprendre les mécanismes d'interconnexion aux bases de données Comprendre les principaux outils de traitement et d'analyse de données pour Python

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD007

Big Data – Les fondamentaux de l’analyse des données

    • Comprendre le rôle stratégique de la gestion des données pour l'entreprise
    • Identifier ce qu'est la donnée, et en quoi consiste le fait d'assurer la qualité de données
    • Synthétiser le cycle de vie de la donnée
    • Assurer l'alignement des usages métiers avec le cycle de vie de la donnée
    • Découvrir les bonnes pratiques en matière de contrôle de qualité des données
    • Assurer la mise en œuvre de la gouvernance de la donnée
 

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BDP05

Visualisation avancée de données avec Python

Savoir traiter les données scientifiques brutes pour leur visualisation Savoir utiliser les librairies graphiques de python pour visualiser des données Graphiques spécifiques : graphes dynamiques, cartographie

14 heures de formations sur 2 Jours
En savoir plus