Dernière mise à jour le 04/04/2025

Bigdata : architecture et technologies

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : Big Data
Rubrique : Fondamenteaux
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

Comprendre les concepts du BigData et savoir quelles sont les technologies implémentées.

Public visé

Chefs de projets, architectes, et toute personne souhaitant connaître les outils et solutions pour mettre en place une architecture BigData.

Pré-requis

Il est demandé aux participants d'avoir une bonne culture générale sur les systèmes d'information.

Programme

Module 1 : Introduction
- Le besoin : volumes importants de données, traitements optimisés de flux de données au fil de l'eau, liés aux nouvelles technologies et aux nouveaux usages.
- Domaines concernés : recherche scientifique, médical, e-commerce, sécurité...
- Développement des techniques sur différents aspects : stockage, indexation/recherche, calcul.
- Définition ETL : Extract Transform Load.
- Les acteurs.  
 
Module 2 : Stockage
- Caractéristiques NoSQL :
- Structure de données proches des utilisateurs, développeurs
- Données structurées et non structurées, documents, images,fichiers XML, JSON, CSV, ...
- Les différents modes et formats de stockage.
- Stockage réparti : réplication, sharping, gossip protocl, hachage,
- Systèmes de fichiers distribués : GFS, HDFS, BigTable, ...
- Les bases de données.
- Quelques exemples de produits et leurs caractéritiques : cassandra, MongoDB, CouchDB,DynamoDB.  
 
Module 3 : Indexation et recherche
- Moteurs de recherche.  
- Principe de fonctionnement.
- Méthodes d'indexation.
- Exemple de Lucene, et mise en oeuvre avec solr.
- Recherche dans les bases de volumes importants :
- Exemples de produits et comparaison : dremel, drill, elasticsearch, MapReduce,
 
Module 4 : Calcul et restitution, intégration
- Différentes solutions : calculs en mode batch, ou en temps réel, sur des flux de données ou des données statiques.
- Les produits : langage de calculs statistiques, R Statistics Language
- Outils de calcul sur des volumes importants : storm en temps réel, hadoop en mode batch.
- Zoom sur Hadoop : complémentarité de HDMS et MapReduce.
- Evolutions
- Les offres Saas BigData comme Google BigQuery.
- Les limites.
Les nouveautés annoncées
 

Modalités

Modalités : en présentiel, distanciel ou mixte . Toutes les formations sont en présentiel par défaut mais les salles sont équipées pour faire de l'hybride. – Horaires de 9H à 12H30 et de 14H à 17H30 soit 7H – Intra et Inter entreprise.
Pédagogie : essentiellement participative et ludique, centrée sur l’expérience, l’immersion et la mise en pratique. Alternance d’apports théoriques et d’outils pratiques.
Ressources techniques et pédagogiques : Support de formation au format PDF ou PPT Ordinateur, vidéoprojecteur, Tableau blanc, Visioconférence : Cisco Webex / Teams / Zoom.
Pendant la formation : mises en situation, autodiagnostics, travail individuel ou en sous-groupe sur des cas réels.

Méthodes

Fin de formation : entretien individuel.
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation.
Assiduité : certificat de réalisation.
Validations des acquis : grille d'evalution  des acquis établie par le formateur en fin de formation.
Code de formation : BD001

Tarifs

Prix public : 1270
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
Le dispositif FNE-Formation.
L’OPCO (opérateurs de compétences) de votre entreprise.
France Travail: sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
CPF -MonCompteFormation
Contactez nous pour plus d’information : contact@aston-institut.com

Lieux & Horaires

Durée : 14 heures
Délai d'accès : Jusqu'a 8 jours avant le début de la formation, sous condition d'un dossier d'insciption complet

Prochaines sessions

Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

Big Data

DB014

Hadoop, développer des applications pour le Big Data

 

    • Construire un programme à base de Map Reduce
    • Intégrer Hadoop HBase dans un workflow d'entreprise
    • Travailler avec Apache Hive et Pig depuis HDFS
    • Utiliser un graphe de tâches avec Hadoop
 

28 heures de formations sur 4 Jours
En savoir plus

Formation continue

Big Data

SP41174

Linux – Commandes de base

Acquérir la connaissance des commandes fondamentales des systèmes d'exploitation Unix et Linux à travers des exercices modulaires de difficulté progressive Devenir autonome pour une première prise en main d'un système Passer l'étape importante de la maîtrise de l'éditeur "vi"

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD018

Hadoop : l’écosystème

Chefs de projets, développeurs, et toute personne souhaitant comprendre les mécanismes Hadoop et le rôle de chaque composant.

7 heures de formations sur 1 Jours
En savoir plus

Formation continue

Big Data

DB034

Dataiku DSS

Savoir installer, configurer, Dataiku DSS, l'utiliser depuis l'interface web ou des API. Présentation, concepts DSS Connexion aux données Préparation des données Graphiques et statistiques Machine learning Flow/Recipes Interfaces de programmation

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

Big Data

SP56997

Gestion de projet : Les fondamentaux

Connaître le vocabulaire et les concepts de base en gestion de projet Planifier les étapes d’un projet Suivre l’exécution des travaux Évaluer les risques Manager et communiquer dans le projet

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

Big Data

BD019

Développer des applications pour Spark avec Hadoop Cloudera avec Certification

    • Identifier et utiliser les outils appropriés à chaque situation dans un écosystème hadoop
    • Utiliser Apache Spark et l'intégrer dans l'écosystème hadoop
    • Utiliser Sqoop, Kafka, Flume, Hive et Impala
 

28 heures de formations sur 4 Jours
En savoir plus