Quelles sont les principales terminologies de Hadoop Security?

Ce blog Edureka vous aide avec une connaissance détaillée et complète de la sécurité hadoop qui est mise en œuvre en temps réel.

est une préoccupation majeure lorsqu'il s'agit de traiter des données confidentielles. être le supérieur dans les opérations de traitement de données est également confronté au même problème. Il n’a pas sa propre sécurité dédiée. Comprenons comment le problème a été résolu grâce à Sécurité Hadoop article.

Pourquoi avons-nous besoin de la sécurité Hadoop?

hadoop-security-pourquoi la sécurité hadoop est-elle importante





est le cadre de traitement de Big Data le plus puissant, le plus robuste et le plus évolutif capable de crunch pétaoctets de données avec facilité. En raison de ses capacités inégalées, à l'époque, tous les secteurs d'activité, les départements de la santé, de l'armée et des finances ont commencé à utiliser Hadoop.

Hadoop a commencé à gagner en popularité. C'est à ce moment que les développeurs Hadoop ont trouvé un erreur de calcul monumentale. Hadoop manquait d'un logiciel de sécurité dédié à l'intérieur. Cela a affecté de nombreux domaines où Hadoop était utilisé.



  • Plusieurs secteurs d'activité

  • La sécurité nationale

  • Départements de santé et médicaux



  • Des médias sociaux

  • Militaire

Les domaines mentionnés ci-dessus sont les principaux utilisateurs de Hadoop. Maintenant, Sécurité est le grand saut que Hadoop doit franchir.

Qu'est-ce que la sécurité Hadoop?

Sécurité Hadoop est généralement défini comme une procédure pour sécurise l'unité de stockage de données Hadoop, en offrant un mur de sécurité pratiquement impénétrable contre toute cyber-menace potentielle. Hadoop atteint ce mur de sécurité de haut calibre en suivant ce qui suit protocole de sécurité.

Authentification

Authentification est la première étape au cours de laquelle les informations d'identification de l'utilisateur sont vérifiées. Les identifiants incluent généralement les informations dédiées à l'utilisateur Nom d'utilisateur et un mot de passe secret. Entréles informations d'identification seront vérifiées par rapport aux détails disponibles sur la base de données de sécurité. S'il est valide, l'utilisateur sera authentifié.

Autorisation

Autorisation est la deuxième étape au cours de laquelle le système décide de donner ou non l'autorisation à l'utilisateur, d'accéder aux données ou non. Il est basé sur la liste de contrôle d'accès prédéfinie. Le confidentielles informations sont sécurisées et uniquement personnel autorisé peut y accéder.

Audit

Audit est la dernière étape, il garde simplement une trace des opérations effectuées par l'utilisateur authentifié pendant la période pendant laquelle il a été connecté au cluster. C'estfait uniquement pour Sécurité uniquement à des fins.

Types de sécurité Hadoop

  • Sécurité Kerberos

Kerberos est l'un des principaux protocoles d'authentification réseau conçu pour fournir des services d'authentification puissants aux deux Serveur et Extrémités client à travers Clef secrète techniques de cryptographie. Il s'est avéré hautement sécurisé car il utilise des tickets de service cryptés tout au long de la session.

framework piloté par mots-clés dans le sélénium
  • Chiffrement HDFS

Chiffrement HDFS est une formidable avancée que Hadoop n'a jamais adoptée. Ici, les données de la source à destination (HDFS) est complètement crypté. Cette procédure ne nécessite aucune modification de l'application Hadoop d'origine, ce qui rend le client être le seul personnel autorisé à accès les données.

  • Chiffrement du trafic

Chiffrement du trafic n'est autre que HTTPS (HyperText Transfer Protocol Secure). Cette procédure permet de sécuriser la transmission des données, sur le site aussi bien que transmission de données au site Web . De nombreuses passerelles bancaires en ligne utilisent cette méthode pour sécuriser les transactions sur un Certificat de sécurité

  • Autorisations de fichiers et de répertoires HDFS

Autorisations du répertoire de fichiers HDFS travailler dans un simple POSIX format. La Lis et Écrire les autorisations sont fournies comme r et s respectivement. Les autorisations sur le Super utilisateur et Client sont définis différemment en fonction de la confidentialité du dossier.

Kerberos

Kerberos est l'un des réseaux les plus simples et les plus sûrs protocole d'authentification utilisé par Hadoop pour ses données et la sécurité de son réseau. Il a été inventé par AVEC. L'objectif principal de Kerberos est d'éliminer le besoin d'échanger des mots de passe sur un réseau, et également de sécuriser le réseau de tout potentiel cyber reniflement.

Pour comprendre la terminologie Kerberos, nous devons d'abord en apprendre davantage sur les composants impliqués dans le logiciel Kerberos.

KDC ou Key Distribution Center est le cœur de Kerberos. Il se compose principalement de trois composants. À savoir:

  • Base de données

La base de données stocke les informations d'identification de l'utilisateur comme Nom d'utilisateur et ses mots de passe. Il stocke également le droits d'accès privilèges fournis à l'utilisateur. L'unité Kerberos KDC stocke également des informations supplémentaires telles que Clé de cryptage, validité du ticket etc.

  • Serveur d'authentification

Les informations d'identification de l'utilisateur saisies seront vérifiées. S'il est valide, le Serveur d'authentification fournira TGT ou Ticket de génération de billets. Un TGT ne peut être généré que si l'utilisateur entre informations d'identification valides.

  • Serveur d'octroi de tickets

La prochaine étape est la TGS ou Serveur d'octroi de tickets. Il s'agit essentiellement d'un serveur d'application de KDC qui vous fournira le Ticket de service. Le ticket de service est requis par l'utilisateur pour interagir avec Hadoop et obtenir le service dont il a besoin ou pour effectuer une opération sur Hadoop.

Vous pouvez installer Kerberos à l'aide de la commande suivante:

sudo apt-get install krb5-kdc krb5-admin-server

Supposons maintenant que vous souhaitiez accéder à un cluster Hadoop sécurisé Kerberos. Vous devez suivre les étapes suivantes pour accéder au cluster Hadoop comme décrit dans les étapes ci-dessous:

  • Vous devez obtenir authentification du cluster Hadoop. Vous pouvez vous authentifier en exécutant Kinit commande sur le cluster Hadoop.

kinit root / admin
  • La Kinit L'exécution de la commande vous redirigera vers le Identifiants de connexion page sur laquelle vous devez entrer votre Nom d'utilisateur et mot de passe.

  • La Kinit enverra un Demande d'authentification à la Serveur d'authentification.

  • Si vos informations d'identification sont valide, puis Authentication Server répondra par un Ticket Generation Ticket (TGT).

  • La Kinit stockera le TGT dans vos identifiants Cache Mémoire. La commande suivante vous aidera à lire vos informations d'identification

klist
  • Maintenant, vous êtes authentifié avec succès dans le KDS.

  • Avant d'accéder au cluster Hadoop, vous devez configurer les clients Kerberos. pour ce faire, utilisez la commande suivante.

sudo apt-get install krb5-user libpam-krb5 libpam-ccreds auth-client-config

  • La TGS approuvera la demande et vous fournira un Ticket de service.

  • Cette Ticket de service sera mis en cache par le Client Hadoop.

  • Cette Ticket de service sera utilisé par le client Hadoop pour communiquer avec Hadoop Namenode.

  • La Namenode s'identifiera à son Billet.

  • Les deux Billet Namenode et Hadoop Client Billets de service seront vérifiés les uns par les autres.

  • Les deux sont sûrs qu'ils communiquent avec un entité authentifiée.

  • C'est appelé Authentification mutuelle.

  • La prochaine étape est Autorisation. Le Namenode vous fournira le un service pour lequel vous avez reçu le autorisation.

  • Enfin, la dernière étape est Audit. Ici votre activité sera connecté pour à des fins de sécurité.

Avec cela, nous arrivons à la fin de cet article . J'espère avoir mis en lumière vos connaissances sur un Sécurité Hadoop.

Maintenant que vous avez compris Hadoop et sa sécurité, consultez le par Edureka, une entreprise d'apprentissage en ligne de confiance avec un réseau de plus de 250 000 apprenants satisfaits répartis dans le monde entier. Le cours de formation à la certification Edureka Big Data Hadoop aide les apprenants à devenir experts en HDFS, Yarn, MapReduce , Pig, Hive, HBase, Oozie, Flume et Sqoop en utilisant des cas d'utilisation en temps réel sur le domaine de la vente au détail, des médias sociaux, de l'aviation, du tourisme et de la finance.

Si vous avez des questions à ce sujet «Sécurité Hadoop» article, alors écrivez-nous dans la section commentaire ci-dessous et nous vous répondrons dans les plus brefs délais.