Traitement du Big Data avec Apache Spark et Scala

Apache Spark s'est révélé être un excellent développement dans le traitement du Big Data.



déclarer un tableau d'objets en java

IST: 7h00 - 8h00, 17 octobre 2014



PDT: 18h30 - 19h30, 16 octobre '14

Places limitées !! Remplissez le formulaire à droite et réservez votre place aujourd'hui.



Salut à tous, nous organisons un webinaire gratuit sur Apache Spark et Scala le 18 octobre 2014. Le titre du webinaire est «Traitement du Big Data avec Apache Spark et Scala» . Dans ce webinaire, les sujets essentiels concernant Apache Spark et Scala seront abordés. Toutes questions ou doutes peuvent être clarifiés au cours de la session.

Sujets à traiter:

  • Qu'est-ce que le Big Data?
  • Qu'est-ce que Spark?
  • Pourquoi Spark?
  • Écosystème Spark
  • Une note sur Scala
  • Pourquoi Scala?
  • Bonjour Spark - Hands on

Pourquoi Spark?

Apache Spark est un framework de calcul de cluster open-source pour les clusters de communauté Hadoop. Il se qualifie pour être l'un des meilleurs moteurs d'analyse et de traitement des données pour les données à grande échelle avec sa vitesse inégalée, sa facilité d'utilisation et ses analyses sophistiquées. Voici les avantages et les fonctionnalités qui font d'Apache Spark un succès croisé pour les analyses opérationnelles et d'investigation:

  • Les programmes développés sur Spark fonctionnent 100 fois plus vite que ceux développés dans Hadoop MapReduce.
  • Spark compile 80 opérateurs de haut niveau.
  • Spark Streaming permet le traitement des données en temps réel.
  • GraphX ​​est une bibliothèque de calculs graphiques.
  • MLib est la bibliothèque d'apprentissage automatique pour Spark.
  • Principalement écrit en Scala, Spark peut être intégré dans n'importe quel système opérationnel basé sur JVM, en même temps peut également être utilisé de manière REPL (Lire, évaluer, traiter et charger).
  • Il dispose de puissantes capacités de mise en cache et de persistance du disque.
  • Spark SQL lui permet de gérer efficacement les requêtes SQL
  • Apache Spark peut être déployé via Apache Mesos, Yarn in HDFS, HBase, Cassandra ou Spark Cluster Manager (le propre gestionnaire de cluster de Spark).
  • Spark simule le style fonctionnel et l'API des collections de Scala, ce qui est un grand avantage pour les développeurs Scala et Java.

Besoin d'Apache Spark:

Spark apporte d'immenses avantages à l'industrie en termes de vitesse, de variété de tâches qu'il peut effectuer, de flexibilité, d'analyse de données de qualité, de rentabilité, etc. Il fournit des solutions d'analyse de Big Data haut de gamme et en temps réel à l'industrie informatique, répondant à la demande croissante des clients. L'analyse en temps réel met à profit les capacités de l'entreprise. Sa compatibilité avec Hadoop permet aux entreprises de l'adopter rapidement. Il existe un besoin urgent d'experts et de développeurs formés par Spark, car il s'agit d'une technologie relativement nouvelle, qui est de plus en plus adoptée.