Réplication de fichiers au niveau octet vs réplication de disques au niveau bloc

Evidian SafeKit

Réplication de fichiers au niveau octet vs réplication de disques au niveau bloc dans un cluster de haute disponibilité

Aperçu

Cet article étudie les avantages et les inconvénients de la réplication de fichiers au niveau octet par rapport à la réplication de disques au niveau bloc dans un cluster de haute disponibilité. Nous examinons le volume de données répliquées, l'impact sur l'organisation des données applicatives, le temps de récupération, la simplicité de mise en œuvre.

Réplication de fichiers au niveau octet par rapport à la réplication de disques au niveau bloc

Les tableaux comparatifs suivants détaillent la réplication de fichiers au niveau octet mise en œuvre par SafeKit, un produit logiciel de haute disponibilité.

Qu'est-ce que la réplication de fichiers au niveau octet ?

La réplication de fichiers au niveau octet (comme avec SafeKit) signifie que seules les modifications à l'intérieur des fichiers sont répliquées.

La réplication synchrone est requise dans un cluster de haute disponibilité pour avoir 0 perte de données en cas de défaillance. La réplication asynchrone est destinée aux solutions de sauvegarde.

Le volume de données répliquées est réduit aux informations modifiées par les applications à l'intérieur de leurs fichiers. Aucune donnée supplémentaire n'est répliquée.

Il n'y a pas d'impact sur l'organisation des données d'une application. Par exemple, si une application a ses données sur le disque système, la réplication de fichiers au niveau octet fonctionne.

Le temps de récupération (RTO) en cas de basculement est réduit au temps de redémarrage de l'application sur les fichiers répliqués du serveur secondaire.

Enfin, la solution est très simple à configurer puisque seuls les chemins des répertoires à répliquer sont configurés.

Qu'est-ce que la réplication de disques au niveau bloc ?

La réplication de disques au niveau bloc (comme avec DRBD) signifie que seules les modifications à l'intérieur d'un disque sont répliquées.

Le volume de données répliquées n'est pas réduit aux informations modifiées par les applications. Des données supplémentaires sont répliquées comme les métadonnées de gestion du disque (liste des blocs libres, informations internes au système de fichiers).

Il y a un fort impact sur l'organisation des données applicatives. Toutes les données doivent être localisées sur le disque répliqué. A minima, cela nécessite une reconfiguration de l'application. Ou alors, c'est impossible si certaines données à répliquer se trouvent dans le disque système, car ce disque doit rester propre à chaque serveur.

Le temps de récupération (RTO) augmente avec la procédure de récupération du système de fichiers sur le disque répliqué après un basculement.

Enfin, la solution n'est pas facile à configurer car des compétences sont nécessaires pour configurer un disque spécial avec un système de fichiers. De plus, des compétences applicatives sont requises pour configurer les données de l'application dans le disque répliqué.

Avantages et inconvénients de la réplication de fichiers au niveau octet par rapport à la réplication de disques au niveau bloc

Cluster avec réplication de fichiers au niveau octet

Réplication de fichiers au niveau octet

Cluster avec réplication de disques au niveau bloc

Réplication de disques au niveau bloc

Produit

SafeKit sous Windows et Linux

Produits de réplication de disques comme DRBD

Organisation des données de l'application

0 impact sur l'organisation des données de l'application avec SafeKit.

Il suffit de définir les répertoires à répliquer en temps réel.

Même des répertoires dans le disque système peuvent être répliqués.

Impact sur l'organisation des données de l'application.

Configuration spéciale de l'application pour mettre ses données sur un disque répliqué.

Les données du disque système ne peuvent pas être répliquées.

Réplication de données

Réplication de fichiers en temps réel synchrone au niveau octet.

Réplication de données temps réel et continue suivant l'activité d'écriture générée par l'application.

Aucune métadonnée n'est répliquée. Seules les données modifiées à l'intérieur des fichiers sont répliquées et pas les fichiers dans leur totalité (réplication de fichiers au niveau octet).

Réplication synchrone pour éviter la perte de données en cas de panne

Réplication de disques au niveau bloc.

Réplique toutes les données modifiées dans le disque répliqué.

Les données applicatives et les métadonnées sont répliquées.

Par exemple, l'heure du dernier accès à un fichier est répliquée (l'heure du dernier accès est modifiée chaque fois que le fichier est lu).

Complexité du déploiement

Non - installer un logiciel sur 2 serveurs

Oui - nécessite des compétences informatiques spécifiques pour la configuration du système d'exploitation et du disque répliqué

Basculement

Redémarrer simplement l'application sur le deuxième serveur

Remonter le système de fichiers du disque répliqué.

Passer la procédure de récupération sur le système de fichiers.

Et enfin redémarrer l'application

Réintégration d'un serveur dans le cluster

Réintégration automatique.

Resynchronisation des données sur le serveur secondaire sans arrêter l'application sur le serveur principal.

Pas de basculement d'application tant que les données ne sont pas resynchronisées.

Tous les produits ne sont pas au même niveau de fonctionnalité.

Quorum et split brain

Application exécutée sur un serveur unique après une isolation de réseau (split brain).

Cohérence des données après un split brain.

Pas besoin d'une troisième machine, d'un disque de quorum ou d'une voie de heartbeat spéciale pour le split brain.

Plus d'informations sur les heartbeats, le failover et le quorum

Requiert un disque de quorum spécial ou un troisième serveur de quorum pour gérer le split brain

Convient pour

Les éditeurs de logiciels qui souhaitent ajouter une option de haute disponibilité simple pour leur application

Les entreprises possédant des compétences en informatique dans le clustering

Différentiateurs de la solution de haute disponibilité SafeKit par rapport à la concurrence

SafeKit : une solution idéale pour une application partenaire

Cette solution indépendante de la plateforme est idéale pour un partenaire ayant une application critique et qui souhaite proposer une option de redondance et de haute disponibilité simple à déployer auprès de nombreux clients.

Elle est également reconnue comme la plus simple à mettre en œuvre par nos partenaires.

Comment fonctionne le cluster miroir de SafeKit ?

Etape 1. Réplication en temps réel

Le serveur 1 (PRIM) exécute l'application. Les utilisateurs sont connectés à une adresse IP virtuelle. Seules les modifications faites par l'application à l'intérieur des fichiers sont répliquées en continue à travers le réseau.

Réplication de données temps réel reprise sur panne

La réplication est synchrone sans perte de données en cas de panne contrairement à une réplication asynchrone.

Il vous suffit de configurer les noms des répertoires à répliquer dans SafeKit. Il n'y a pas de pré-requis sur l'organisation du disque. Les répertoires peuvent se trouver sur le disque système.

Etape 2. Basculement automatique

Lorsque le serveur 1 est défaillant, SafeKit bascule l'adresse IP virtuelle sur le serveur 2 et redémarre automatiquement l'application. L'application retrouve les fichiers répliqués à jour sur le serveur 2.

L'application poursuit son exécution sur le serveur 2 en modifiant localement ses fichiers qui ne sont plus répliqués vers le serveur 1.

Basculement automatique dans un cluster miroir

Le temps de basculement est égal au temps de détection de la panne (30 secondes par défaut) et au temps de relance de l'application.

Etape 3. Réintégration après panne

A la reprise après panne du serveur 1 (réintégration du serveur 1), SafeKit resynchronise automatiquement les fichiers de ce serveur à partir de l'autre serveur.

Seuls les fichiers modifiés sur le serveur 2 pendant l'inactivité du serveur 1 sont resynchronisés.

Réintégration après panne dans un cluster miroir

La réintégration du serveur 1 se fait sans arrêter l'exécution de l'application sur le serveur 2.

Etape 4. Retour à la normale

Après la réintégration, les fichiers sont à nouveau en mode miroir comme à l'étape 1. Le système est en haute disponibilité avec l'application qui s'exécute sur le serveur 2 et avec réplication temps réel des modifications vers le serveur 1.

Retour à la normale d'un cluster actif-passif

Si l'administrateur souhaite que son application s'exécute en priorité sur le serveur 1, il peut exécuter une commande de basculement, soit manuellement à un moment opportun, soit automatiquement par configuration.

Utilisation typique avec SafeKit

Pourquoi une réplication de quelques Tera-octets ?

Temps de resynchronisation après panne (étape 3)

  • Réseau 1 Gb/s ≈ 3 heures pour 1 téraoctet.
  • Réseau 10 Gb/s ≈ 1 heure pour 1 téraoctet ou moins en fonction des performances d'écriture disque.

Alternative

  • Pour un grand volume de données, utilisez un stockage partagé externe avec une solution de clustering matériel.
  • Plus cher, plus complexe.

Pourquoi une réplication < 1 000 000 fichiers ?

  • Performance du temps de resynchronisation après panne (étape 3).
  • Temps pour vérifier chaque fichier entre les deux nœuds.

Alternative

  • Placez les nombreux fichiers à répliquer sur un disque dur virtuel / une machine virtuelle.
  • Seuls les fichiers représentant le disque dur virtuel / la machine virtuelle seront répliqués et resynchronisés dans ce cas.

Pourquoi un basculement < 25 VMs répliquées ?

  • Chaque VM s'exécute dans un module miroir indépendant.
  • Maximum de 25 modules miroir exécutés sur le même cluster.

Alternative

  • Utilisez un stockage partagé externe et une autre solution de clustering de VMs.
  • Plus cher, plus complexe.

Pourquoi un réseau LAN/VLAN entre sites distants ?

Alternative

  • Utilisez un équilibreur de charge pour l'adresse IP virtuelle si les 2 nœuds sont dans 2 sous-réseaux (supporté par SafeKit, notamment dans le cloud).
  • Utilisez des solutions de backup avec réplication asynchrone pour un réseau à latence élevée.

Différentiateurs de la solution de haute disponibilité SafeKit par rapport à la concurrence

Modules SafeKit pour des solutions de redondance et de haute disponibilité plug&play

SafeKit Modules for Plug&Play High Availability Solutions

Partage de charge réseau et reprise sur panne

Windows farm

Linux farm

Generic farm   > Generic farm   >
Microsoft IIS   > -
NGINX   >
Apache   >
Amazon AWS farm   >
Microsoft Azure farm   >
Google GCP farm   >
Other cloud   >

Architectures de clustering avancée

Plusieurs modules peuvent être déployés dans le même cluster. Ainsi, des architectures de clustering avancées peuvent être mises en œuvre :

Démonstrations de solutions de redondance et de haute disponibilité

Webinaire SafeKit

Ce webinaire présente en 2 minutes Evidian SafeKit.

Dans ce webinaire, vous comprendrez les clusters ferme et miroir de SafeKit.

Cluster Microsoft SQL Server

Cette vidéo montre la configuration d'un module miroir avec réplication temps réel synchrone et reprise sur panne.

La réplication de fichiers et le basculement sont configurés pour Microsoft SQL Server mais fonctionnent de la même manière pour d'autres bases de données.

Essai gratuit ici

Cluster Apache

Cette vidéo montre une configuration d'un module ferme avec équilibrage de charge et reprise sur panne.

L'équilibrage de charge et le basculement sont configurés pour Apache mais fonctionnent de la même manière pour d'autres services Web.

Essai gratuit ici

Cluster Hyper-V

Cette vidéo montre un cluster Hyper-V avec des réplications complètes de machines virtuelles.

Les machines virtuelles peuvent s'exécuter sur les deux serveurs Hyper-V et elles sont redémarrées en cas de panne.

Essai gratuit ici

Formation à SafeKit

Introduction

  1. Introduction / pptx

    • Fonctionnalités
    • Architectures
    • Avantages distinctifs
  2. Compétition / pptx

    • Cluster matériel vs logiciel
    • Réplication synchrone vs asynchrone
    • Réplications de fichiers vs disques
    • Haute disponibilité vs tolérance aux fautes
    • Load balancing matériel vs logiciel
    • HA de machines virtuelles vs applications

Installation, configuration, CLI

  1. Installation / pptx

    • Installation du package
    • Configuration des nœuds
    • Configuration du cluster
    • Upgrade
  2. Console web / pptx

    • Configuration du cluster
    • Onglet Configuration
    • Onglet Contrôle
    • Onglet Supervision
    • Onglet Configuration avancée
  3. Ligne de commande / pptx

    • Installation silencieuse
    • Administration du cluster
    • Administration du module
    • Command line interface

Configuration avancée

  1. Module miroir / pptx

    • userconfig.xml + restart scripts
    • Heartbeat (<hearbeat>)
    • Virtual IP address (<vip>)
    • Real-time file replication (<rfs>)
  2. Module ferme / pptx

    • userconfig.xml + restart scripts
    • Farm configuration (<farm>)
    • Virtual IP address (<vip>)
  3. Checkers / pptx

    • Failover machine (<failover>)
    • Process monitoring (<errd>)
    • Network and duplicate IP checkers
    • Custom checker (<custom>)
    • Split brain checker (<splitbrain>)
    • TCP, ping, module checkers

Support

  1. Outils pour le support / pptx

    • Analyse des snapshots
  2. Support Evidian / pptx

    • Récupérer les clés permanentes
    • S'enregistrer sur support.evidian.com
    • Call desk

Documentation

  1. Documentation technique

  2. Documentation d'avant vente