Formation initiation au Big Data
Découvrez le monde du big data
Présentation de la formation
Big data est un terme qui désigne des ensembles de données numériques massives, volumineuses appelé aussi mégadonnées, apparue pour la première fois en octobre 1997, selon les archives de la bibliothèque numérique de l’Association for Computing Machinery (ACM). Il s’agit d’une technologie inventée et déployée en premier par les géants du Web tel Yahoo, Facebook et Google comme solution permettant l’accès en temps réel, à tout le monde, à des bases de données géantes engendrant ainsi un bouleversement profond de la société.
Actuellement, avec l’émergence des réseaux sociaux, la révolution du mobile, le cloud, le social business, le consom’acteur…etc, nous assistons à un accroissement exponentiel du volume de données : 33 Zo de volume de données stockées dans le monde en 2018 va passer à 175 Zo en 2025 dont 90 Zo des données créées seulement par l’Internet des Objets selon l’étude Data Age 2025 des analystes de IDC, soit 5,3 fois plus qu’aujourd’hui.
En conclusion, Big data révolutionne de nos jours, l’ensemble des aspects de la vie, de la société et tous les secteurs de l’économie. Ainsi la donnée numérique est devenue le nouveau carburant de l’économie moderne.
Chez ADN Academy, vous aurez en effet, l’occasion de découvrir l’environnement du big data avec l’accompagnement de nos meilleurs experts. Découvrez donc le contenu de la formation initiation au Big Data afin de créer de la valeur pour votre entreprise.
Programme de la formation
Objectifs pédagogiques
- Comprendre le concept du Big Data
- Comprendre les enjeux de Big Data et son impact sur l’entreprise
- Être capable d’anticiper l’intégration du Big Data dans les activités informatiques de l’entreprise et comprendre les technologies associées.
Pré-requis
- D’avoir une culture informatique d’entreprise.
Contenu de la formation
Définition commune du Big Data selon les grands acteurs du marché
- Caractéristiques techniques des 3V de Gartner (Vélocité, Variété et Volume) et les variantes (Véracité, Valeur, Validité….)
- Big Data : pourquoi maintenant ?
- Traitement des données structurées, semi-structurées et déstructurées
- Transformation des données massives en informations utiles et en valeur
- Gestion des données en cycles, de l’acquisition à la gouvernance. Use Case et stratégies (GAFA (Google, Apple, Facebook, Amazon), exemples santé, grande distribution, bancassurance…)
- Les grands acteurs et le marché du Big Data
Description des technologies de référence du Big Data
- NoSQL (Not Only SQL) et les nouvelles compétences attendues (Python, R, Scala, Java)…
- Hadoop : un modèle d’open source du Big Data adopté par les grands acteurs de l’informatique (IBM, Oracle, Amazone, EMC, Google…)
- Principaux composants d’Hadoop : HDFS (Hadoop Distributed File System), MapReduce, Pig, Flume, Zookeeper, H-BASE, Lucene, Hive, Cloudera, Oozie, Cassandra, Machine Learning…
- Autres solutions : Docker, OpenStack, Elastic, Splunk…
- Nouvelles architectures techniques pour traiter des données massives et non-structurées, en temps réel (SPARK)
Relation entre Big Data et Cloud DaaS (Data as a Service)
- Technologies associées au Cloud (datacenters, stockage, virtualisation, Grid, OS d’orchestration d’Openstack, réseaux…)
- Emergence des solutions Big Data proposées en mode Cloud DaaS (Data as a service)
Déploiement et utilisation du Big Data
- Description d’une plate-forme de Big Data et bonnes pratiques
- Intégration des données et systèmes existants à la plate-forme Big Data
- Acquisition et qualification des données ouvertes des organisations publiques et sociales (Open Data)
- Traitement des données à la volée (Data Streaming)
- Analyse de données (Data Analytics et Business Intelligence)
- Présentation des informations (Data Visualization)
L’apport du NoSQL
- Description des principales familles de bases de données NoSQL
- Zoom sur MongoDb
- Zoom sur Cassandra
- Zoom sur Neo4j
Une journée au cœur des écosystèmes Hadoop et Spark
- Introduction générale
- Les principales briques et leur rôle
- PIG, Hive, Oozie, Flume, HDFS, MapReduce, Sqoop, Zookeeper, Hbase, Mahout, les connecteurs, …
- SparkML, SparkQL, MLlib, Kafka, Storm, Flink , Beam, …
- Démonstrations et discussions
Méthodes & moyens
Explications théoriques suivies de pratiques guidées puis mises en autonomie
- 1 vidéoprojecteur par salle
- 1 ordinateur par stagiaire
Profil du formateur
Support de cours
- Support papier ou électronique (dématérialisé)
- Les exercices d’accompagnement peuvent être récupérés sur clef USB
Devis
Infos Pratiques
Contactez Nous
Formations Planifiées Prochainement
Comments are closed.