Docker : le cluster de haute disponibilité le plus simple avec réplication synchrone et tolérance aux pannes entre deux serveurs Linux redondants

Evidian SafeKit

Comment le logiciel Evidian SafeKit met en œuvre simplement la haute disponibilité de Docker avec réplication synchrone temps réel et tolérance aux pannes entre deux serveurs Linux redondants sans disque partagé

Comment Evidian SafeKit met en œuvre la haute disponibilité de Docker avec réplication temps réel et tolérance aux pannes entre deux serveurs redondants

Evidian SafeKit apporte la haute disponibilité à Docker entre deux serveurs redondants. Cet article explique comment mettre en œuvre rapidement un cluster Docker sans disque partagé et sans compétences spécifiques. Le module de haute disponibilité mirror.safe et un essai gratuit sont offerts dans le tab installation ci-dessous.

Notez que SafeKit est un produit générique. Vous pouvez mettre en œuvre avec le même produit la réplication en temps réel et le basculement de nouveaux répertoires de fichiers et services, de bases de données, de conteneurs docker, de machines virtuelles Hyper-V ou KVM complètes, d'applications Cloud. Voir d'autres exemples de modules miroirs ici.

Cette solution de clustering est reconnue comme la plus simple à mettre en œuvre par nos clients et partenaires. C'est également une solution complète qui résout

  • les pannes matérielles (20% des problèmes), incluant la panne complète d'une salle informatique,
  • les défaillances logicielles (40% des problèmes), incluant le passage d'update serveur par serveur,
  • et les erreurs humaines (40% des problèmes) grâce à sa simplicité d'utilisation, incluant une console Web d'administration très simple pour configurer, contrôler et surveiller les clusters.

Notez que la solution présentée ici permet une réplication et une reprise au niveau des conteneurs. Mais SafeKit propose également une solution de réplication et de reprise au niveau de machines virtuelles KVM.

Le principe est de répliquer à l'intérieur de SafeKit les répertoires associés aux volumes persistants de l'application Docker. Et de mettre à l'intérieur des scripts SafeKit start_prim et stop_prim, le démarrage et l'arrêt de l'application Docker.

Sur la figure avec deux serveurs redondants, le serveur 1 / PRIM exécute l'application Docker. Les utilisateurs sont connectés à l'adresse IP virtuelle du cluster miroir. SafeKit réplique les fichiers ouverts par l'application Docker en temps réel. Seules les modifications apportées aux fichiers sont répliquées sur le réseau, limitant ainsi le trafic (réplication de fichiers au niveau octet). Les noms des répertoires de fichiers contenant les données de Docker sont simplement configurés dans SafeKit. Il n'existe pas de pré-requis sur l'organisation des disques entre les deux serveurs. Les répertoires à répliquer peuvent se trouver dans le disque système. SafeKit met en œuvre une réplication synchrone sans perte de données en cas de panne, contrairement à une réplication asynchrone.

En cas de défaillance du serveur 1, il y a un basculement automatique sur le serveur 2 avec redémarrage de l'application Docker. Ensuite, lorsque le serveur 1 est redémarré, SafeKit met en œuvre son retour automatique dans le cluster avec la réintégration des données sans arrêter l'application Docker sur le serveur 2. Enfin, le système retourne à la réplication synchrone entre le serveur 2 et le serveur 1. L'administrateur peut décider d'échanger le rôle du primaire et du secondaire pour revenir à un serveur 1 qui exécute l'application Docker. Ce changement de rôle peut également être fait automatiquement par configuration.

Notez que vous pouvez déployer plusieurs modules sur le même cluster. Chaque module aura sa propre adresse IP virtuelle et ses propres répertoires répliqués. Ainsi, vous pouvez implémenter un cluster actif/actif avec plusieurs modules miroirs ou un mélange de modules ferme et miroir.

Version d'essai gratuit + module mirror.safe et procédure d'installation étape par étape de SafeKit sur deux serveurs Linux redondants avec Docker

Installation de SafeKit pour la haute disponibilité de Docker avec réplication temps réel synchrone et tolérance aux pannes entre deux serveurs redondants

Prérequis

  • vous avez besoin de l’application que vous souhaitez redémarrer dans SafeKit installée sur 2 nœuds (machines virtuelles ou serveurs physiques)

Installation du package sur Linux

Sur les deux serveurs Linux

  • Installez la version gratuite de SafeKit sur 2 nœuds Linux
  • Après le téléchargement du package safekit_xx.bin, exécutez-le pour extraire le rpm et le script safekitinstall, puis exécutez le script safekitinstall
  • Répondez oui à la configuration automatique du pare-feu
  • SafeKit Modules for Plug&Play High Availability Solutions
  • Le module mirror.safe est livré dans le package.

Note   Guide de l'utilisateur disponible ici

Exemple 1 avec une application Docker compose

Avec une application Docker compose, vous disposez d'un fichier docker-compose.yml décrivant l'application et tous ses containers.

  • Tout d'abord, sur les deux serveurs, installez l'application docker compose sans la démarrer: docker-compose -f docker-compose.yml up --no-start
  • Sur un serveur, pour chaque volume dans docker-compose.yml, exécutez cette commande: docker volume inspect volume_name
    Elle retournera les répertoires hôtes des volumes docker (ces chemins ne sont pas donnés dans docker-compose.yml).
    Ainsi, vous obtenez une liste sous la forme /var/lib/docker/volumes/<volume_name>/_data
  • Allez dans l'onglet Configuration et :
    - définissez une adresse IP virtuelle qui sera commutée en cas de panne
    - définissez la liste /var/lib/docker/volumes/<volume_name>/_data comme répertoires répliqués
    - mettre respectivement dans les scripts start_prim et stop_prim: /usr/local/bin/docker-compose -f docker-compose.yml --no-ansi start et /usr/local/bin/docker-compose -f docker-compose.yml --no-ansi stop

Exemple 2 avec une application Docker démarrant un ensemble de containers

Nous supposons maintenant une application myappli démarrant un ensemble de containers.

  • Tout d'abord, sur les deux serveurs, installez myappli sans la démarrer.
  • Sur un serveur, listez les volumes utilisés par myapply: ls /var/lib/docker/volumes
    Ainsi, vous obtenez une liste sous la forme /var/lib/docker/volumes/<volume_name>/_data
  • Allez dans l'onglet Configuration et :
    - définissez une adresse IP virtuelle qui sera commutée en cas de panne
    - définissez la liste /var/lib/docker/volumes/<volume_name>/_data comme répertoires répliqués
    - mettre respectivement dans les scripts start_prim et stop_prim: /.../myappli start et /.../myappli stop

Exemple 3 avec une simple image docker

La configuration est présentée sur l'exemple de l'image docker nginx (serveur web).

  • Création d'un volume docker
    Sur les deux serveurs, créez un volume docker avec le même nom: docker volume create replicated_vol
    Récupérez le chemin du répertoire sur l'hôte où le volume est stocké: docker volume inspect replicated_vol (par exemple:/var/lib/docker/storage/replicated_vol/_data)
  • Création d'un conteneur docker
    Sur les deux serveurs, créez un conteneur docker nginx lié au volume précédent: docker container create --name mynginx -v replicated_vol:/usr/share/nginx/html -p 9011:80 nginx
    Remplissez le volume avec un fichier index.html: docker cp index.html mynginx:/usr/share/nginx/html/index.html
  • Allez dans l'onglet Configuration et :
    - définissez une adresse IP virtuelle qui sera commutée en cas de panne
    - définissez /var/lib/docker/storage/replicated_vol/_data comme répertoire répliqué
    - mettez respectivement dans les scripts start_prim et stop_prim: docker start mynginx et docker stop mynginx
    - après la configuration de SafeKit, testez l'accès à index.html avec http://vitual-ip:9011

Continuez avec l'onglet Configuration

Configuration de SafeKit pour la haute disponibilité de Docker avec réplication temps réel synchrone et tolérance aux pannes entre deux serveurs redondants

Instructions de configuration

Warning  Important : toute la configuration SafeKit est réalisée à partir d'un seul navigateur.

Lancez la console Web dans un navigateur sur un nœud en vous connectant à http://localhost:9010 (image suivante). Vous pouvez aussi exécuter la console dans un navigateur sur un poste de travail externe en vous connectant à l'adresse IP physique d'un nœud.

Démarrer la console Web SafeKit pour configurer Docker

Note   Pour sécuriser la console web, voir 11. Sécurisation de la console web de SafeKit dans le guide de l'utilisateur.

Entrez l'adresse IP du premier nœud et cliquez sur Confirm (image suivante)

Console Web SafeKit - premier nœud dans le cluster Docker

Cliquez sur New node et entrez l'adresse IP du deuxième nœud (image suivante)
Puis, cliquez sur la disquette rouge pour sauvegarder la configuration (image suivante)

Console Web SafeKit - second nœud dans le cluster Docker

Note   Dans l'image précédente, l'opération de sauvegarde a placé les adresses IP dans le fichier /var/safekit/cluster/cluster.xml et a appliqué la commande distribuée /opt/safekit/safekit –H "*" -G qui configure le nœud 1 et le nœud 2. Ne refaites donc pas cette opération sur l'autre nœud. Vérifiez la connectivité et le pare-feu entre les deux nœuds pour résoudre des problèmes.

Dans l'onglet Configuration (image suivante), cliquez sur mirror.safe puis entrez mirror comme nom du module et cliquez sur Confirm

Console Web SafeKit - démarrer la configuration des services Docker  console Web SafeKit - entrez le nom du module Docker

Cliquez sur Validate (image suivante)

Console Web SafeKit - entrez les nœuds du module Docker

Après le clic sur Validate, cette nouvelle fenêtre apparaît (image suivante)

Console Web SafeKit - entrer les paramètres du module Docker

Dans l'image précédente:

  • Vérifiez que les répertoires répliqués sont installés sur les 2 nœuds et contiennent les données applicatives.
    La réplication des données et aussi des logs est requise pour une base de données.
    Vous pouvez ajouter des nouveaux répertoires répliqués si nécessaire.
  • Enter une adresse IP virtuelle. Une adresse IP virtuelle est une adresse IP standard dans le même réseau IP (même subnet) que les adresses IP des 2 nœuds.
    Les clients de l'application doivent être configurés avec l'adresse IP virtuelle (ou le nom DNS associé à l'adresse IP virtuelle).
    L'adresse IP virtuelle est automatiquement basculée en cas de panne.
  • start_prim et stop_prim doivent contenir le démarrage et l'arrêt de l'application Docker.
    Modifiez les scripts et ajoutez le démarrage et l'arrêt de votre application Docker.
  • Arrêtez les services configurés dans start_prim sur les 2 nœuds.
  • Notez que, si un nom de processus est affiché dans Process checker, il sera surveillé avec l'action restart en cas de panne. Les services seront arrêtés et redémarrés localement sur le serveur principal si ce processus disparaît de la liste des processus en cours d'exécution. Après 3 redémarrages locaux infructueux, le module est arrêté sur le serveur principal et les services sont redémarrés sur le serveur secondaire.

Cliquez sur Validate (image précédente)

Console Web SafeKit - arrêtez le module Docker avant la configuration

Cliquez sur Configure (image précédente)

Console Web SafeKit - vérifier le message succès vert de la configuration du module Docker

Vérifiez le message succès vert sur les deux serveurs et cliquez sur Next (image précédente). Sous Linux, vous pouvez avoir une erreur à cette étape si les répertoires répliqués sont des points de montage. Voir cet article pour résoudre le problème.

On suppose que le nœud 1 contient les répertoires répliqués les plus récents (sinon faite l'opération suivante sur le nœud 2).
On suppose que les services démarrés automatiquement par SafeKit dans le script start_prim sont arrêtés sur le nœud 1.
Sélectionnez le nœud 1 et cliquez sur Start it (image suivante).
Lorsque vous démarrerez le nœud 2, la première resynchronisation se fera du nœud1 vers le nœud 2.
En cas de doute, avant cette opération, nous vous suggérons de faire une copie des répertoires répliqués avant de démarrer le cluster pour éviter toute erreur.

Console Web SafeKit - sélectionnez le nœud Docker avec les données à jour

Le nœud 1 doit atteindre l'état ALONE (vert) (image suivante), ce qui signifie que le script start_prim a été exécuté sur le nœud 1.
Lorsque le nœud 1 atteint l'état ALONE (vert), vous pouvez vérifier que l'application Docker est démarrée sur le nœud 1.
Si l'état est ALONE (vert) et si l'application n'est pas démarrée, vérifiez le script start_prim: vous pouvez trouver les messages de sortie du script dans l'Application Log disponible dans l'onglet Contrôle.
Si le nœud 1 n’atteint pas l’état ALONE (vert), analysez pourquoi avec le Module Log disponible dans l'onglet Contrôle.
Note : dans l'image suivante, si le cluster est dans l'état [WAIT (rouge) not uptodate - STOP (rouge) not uptodate], arrêtez le serveur WAIT et forcez son démarrage en primaire (cliquez ici pour voir l'opération).

Console Web SafeKit - le premier nœud Docker démarre en tant que primaire et est seul

On suppose que les services démarrés automatiquement par SafeKit dans le script start_prim sont bien arrêtés sur le nœud 2.
Démarrez le nœud 2 (image précédente) qui devient SECOND vert (image suivante) après la resynchronisation de tous les répertoires répliqués (copie binaire du nœud 1 vers le nœud 2).

console Web SafeKit - le second nœud Docker démmarre en tant que SECOND

Le cluster est opérationnel avec les services Docker s'exécutant sur le nœud PRIM et ne s'exécutant pas sur le nœud SECOND (image précédente). Seules les modifications à l'intérieur des fichiers sont répliquées en temps réel dans cet état.

Attention, les composants qui sont clients des services Docker doivent être configurés avec l'adresse IP virtuelle. La configuration peut être effectuée avec un nom DNS (si un nom DNS a été créé et associé à l'adresse IP virtuelle).

Tests

Vérifiez avec des lignes de commande sous Linux que les services Docker ont été démarrés sur le serveur primaire par le script start_prim et arrêtés sur le serveur secondaire par le script stop_prim.

Arrêtez le nœud PRIM en faisant défiler le menu du nœud primaire et en cliquant sur Stop. Vérifiez qu'il y a un basculement sur le nœud SECOND. Et avec des lignes de commande sous Linux, vérifiez le basculement des services Docker (arrêtés et démarrés dans les scripts stop_prim et start_prim) .

Plus d'information sur les tests dans le guide de l'utilisateur

Démarrage automatique du module au boot

Configure boot start (image suivante sur le côté droit) configure le démarrage automatique du module au boot du serveur. Effectuez cette configuration sur node1 and node2 une fois que la solution de haute disponibilité fonctionne correctement.

Console Web SafeKit - Démarrage automatique au boot du module Docker

Pour lire les logs SafeKit, allez au tab Dépannage

Pour éditer userconfig.xml, start_prim et stop_prim, allez au tab Configuration avancée

Résolution de problèmes avec SafeKit pour la haute disponibilité de Docker avec réplication temps réel synchrone et tolérance aux pannes entre deux serveurs redondants

Journal du module

Consultez le journal d'un module pour comprendre les raisons d'une reprise sur panne, d'un état d'attente sur la disponibilité d'une ressource etc...
Pour voir le journal du module sur le serveur primaire (image suivante):

  • cliquez sur l'onglet Control
  • cliquez sur node 1/PRIM (il devient bleu) à gauche pour sélectionner le serveur
  • cliquez sur Module Log
  • cliquez sur l'icône Refresh (flêches vertes) pour mettre à jour la console
  • cliquez sur la disquette pour sauver le log du module dans un fichier .txt et pour l'analyser dans un éditeur de texte

Répétez la même opération pour voir le journal du module du serveur secondaire.

Console Web SafeKit - Journal du module du serveur Docker PRIM

Journal applicatif

Consultez le journal applicatif pour voir les messages de sortie des scripts de redémarrage stat_prim et stop_prim.
Pour voir le journal applicatif du serveur primaire (image suivante) :

  • cliquez sur l'onglet Control
  • cliquez sur node 1/PRIM (il devient bleu) à gauche pour sélectionner le serveur
  • cliquez sur Appication Log pour voir les messages de démarrage et d'arrêt des services Docker
  • cliquez sur l'icône Refresh (flêches vertes) pour mettre à jour la console
  • cliquez sur la disquette pour sauver le log applicatif dans un fichier .txt et pour l'analyser dans un éditeur de texte

Répétez la même opération pour voir le journal applicatif du serveur secondaire.

Console Web SafeKit - Application log du serveur Docker PRIM

Plus d'information sur la résolution de problèmes dans le guide de l'utilisateur

Pour un support, allez au tab Support

Configuration avancée de SafeKit pour la haute disponibilité de Docker avec réplication temps réel synchrone et tolérance aux pannes entre deux serveurs redondants

Configuration avancée

Dans l'onglet Advanced Configuration (image suivante), vous pouvez modifier les fichiers internes au module : bin/start_prim et bin/stop_prim et conf/userconfig.xml (image suivante sur le côté gauche). Si vous faites des changements dans les fichiers internes ici, vous devez appliquer la nouvelle configuration par un clic droit sur l'icône/xxx sur le côté gauche (image suivante) : l'interface vous permettra de redéployer les fichiers modifiés sur les deux serveurs.

Console Web SafeKit - Configuration avancée du module Docker

Plus d'information sur userconfig.xml dans le guide de l'utilisateur

Pour un exemple de userconfig.xml, start_prim et stop_prim, allez au tab Internes

Support de SafeKit pour la haute disponibilité de Docker avec réplication temps réel synchrone et tolérance aux pannes entre deux serveurs redondants

Support

Pour obtenir de l'aide sur le centre d'appel de https://support.evidian.com, prenez 2 Snaphots (2 fichiers .zip), un pour chaque serveur et téléchargez-les dans l'outil du centre d'appel (image suivante).

Console Web SafeKit - Snaphots du module Docker pour le support

Plus d'information sur le support dans le guide de l'utilisateur

Fichiers internes à SafeKit pour la haute disponibilité de Linux avec réplication temps réel synchrone et tolérance aux pannes

Allez dans le tab Configuration avancée pour modifier les fichiers ci-dessous.

Fichiers internes au module Linux mirror.safe

userconfig.xml (description dans le guide de l'utilisateur)
<!DOCTYPE safe>
<safe>
   <service mode="mirror" defaultprim="alone" maxloop="3" loop_interval="24" failover="on">
      <!-- Server Configuration -->
      <!-- Names or IP addresses on the default network are set during initialization in the console -->
      <heart pulse="700" timeout="30000">
         <heartbeat name=”default” ident=”flow”/>
      </heart>
      <!-- Virtual IP Configuration -->
      <!-- Replace
         * VIRTUAL_TO_BE_DEFINED by the name/IP of your virtual server 
      -->
      <vip>
         <interface_list>
            <interface check="on" arpreroute="on">
               <real_interface>
                  <virtual_addr addr="VIRTUAL_TO_BE_DEFINED" where="one_side_alias"/>
               </real_interface>
            </interface>
         </interface_list>
      </vip>
      <!-- Software Error Detection Configuration -->
      <!-- Replace
         * PROCESS_NAME by the name of the process to monitor
      -->
      <errd polltimer="10">
        <proc name="PROCESS_NAME" atleast="1" action="restart" class="prim" />
      </errd>
      <!-- File Replication Configuration -->
      <rfs mountover="off" async="second" acl="off" nbrei="3" >
         <replicated dir="/test1replicated" mode="read_only"/>
         <replicated dir="/test2replicated" mode="read_only"/>
      </rfs>
      <!-- User scripts activation -->
      <user nicestoptimeout="300" forcestoptimeout="300" logging="userlog"/>
   </service>
</safe>
start_prim
#!/bin/sh
# Script called on the primary server for starting application

# For logging into SafeKit log use:
# $SAFE/safekit printi | printe "message" 

# stdout goes into Application log
echo "Running start_prim $*" 

res=0

# Fill with your application start call

if [ $res -ne 0 ] ; then
  $SAFE/safekit printe "start_prim failed"

  # uncomment to stop SafeKit when critical
  # $SAFE/safekit stop -i "start_prim"
fi
stop_prim
#!/bin/sh
# Script called on the primary server for stopping application

# For logging into SafeKit log use:
# $SAFE/safekit printi | printe "message" 

#----------------------------------------------------------
#
# 2 stop modes:
#
# - graceful stop
#   call standard application stop
#
# - force stop ($1=force)
#   kill application's processes
#
#----------------------------------------------------------

# stdout goes into Application log
echo "Running stop_prim $*" 

res=0

# default: no action on forcestop
[ "$1" = "force" ] && exit 0

# Fill with your application stop call

[ $res -ne 0 ] && $SAFE/safekit printe "stop_prim failed"

Clients du logiciel de haute disponibilité SafeKit dans tous les domaines d'activité

  • Meilleurs cas d'utilisation de haute disponibilité avec SafeKit

    Meilleurs cas d'utilisation [+]

    Like Logiciel OEM Like   Entreprise distribuée Like   Sites distants
    Logiciel de clustering SafeKit OEM pour la haute disponibilité d'applications critiques Haute disponibilité dans une entreprise distribuée Plan de continuité d'activité et plan de secours sans SAN répliqué
    Un éditeur de logiciel utilise SafeKit comme un logiciel OEM pour la haute disponibilité de son application Une entreprise distribuée déploie SafeKit dans de nombreuses succursales, sans compétence informatique spécifique SafeKit est déployé dans deux sites distants sans nécessiter de baies de disques répliqués à travers un SAN

    Témoignages

    Like  Le produit idéal pour un éditeur logiciel

    « SafeKit est le logiciel de clustering d’application idéal pour un éditeur logiciel. Nous avons actuellement déployé plus de 80 clusters SafeKit dans le monde entier avec notre application critique de télédiffusion. »

    Like  Le produit très simple à déployer pour un revendeur

    « Noemis, distributeur à valeur ajoutée de la vidéosurveillance Milestone, a aidé les intégrateurs à déployer la solution de redondance SafeKit sur de nombreux projets tels que la surveillance des villes, les datacenters, les stades et autres infrastructures critiques. SafeKit est un excellent produit et Evidian fournit un excellent support. »

    Like  Le produit qui fait gagner du temps à un intégrateur de systèmes

    « Grâce à la simplicité et la puissance du produit, nous avons gagné du temps dans l’intégration et la validation de nos projets critiques de supervision des lignes de métro à Paris (PCC / Poste de Commande et de Contrôle). »


  • Haute disponibilité des plateformes de vidéosurveillance avec SafeKit

    Vidéosurveillance et contrôle d'accès [+]

    Dans les systèmes de vidéosurveillance et de contrôle d'accès, Evidian SafeKit implémente une haute disponibilité avec une réplication synchrone et un basculement sur panne pour :

    Sébastien Témoin, directeur technique et innovation, NOEMIS, distributeur à valeur ajoutée des solutions Milestone:

    "Evidian SafeKit est une solution professionnelle facilitant la redondance de Milestone Management Server, Event Server, Log Server. La solution est facile à déployer, facile à maintenir et peut être ajoutée à une installation existante. Nous avons aidé des intégrateurs à déployer la solution sur de nombreux projets tels que la surveillance urbaine, les data centers, les stades et autres infrastructures critiques. SafeKit est un excellent produit et Evidian fournit un excellent support. Heureux de vous aider si vous avez des questions."

    Etudes de cas


  • Harmonic utilise SafeKit pour la haute disponibilité de son application de télédiffusion à travers la TNT, les satellites, le câble et les réseaux IP.

    Télévision numérique [+]

    Harmonic utilise SafeKit comme une offre de haute disponibilité logicielle OEM dans ses solutions de télédiffusion à travers la TNT, les satellites, le câble et les réseaux IP.

    Plus de 80 clusters SafeKit sont déployés sur Windows avec réplication de la base de données d'Harmonic et reprise automatique de l'application critique en cas de panne.

    Philippe Vidal, Responsable produit, Harmonic témoigne :

    « SafeKit est le logiciel de clustering d’application idéal pour un éditeur logiciel qui cherche une solution de haute disponibilité simple et économique. Nous déployons SafeKit dans le monde entier et nous avons actuellement plus de 80 clusters SafeKit sur Windows avec notre application critique de télédiffusion à travers la TNT, les satellites, le câble et les réseaux IP. SafeKit réalise la réplication temps réel et continue de notre base de données et la reprise automatique de notre application sur panne logicielle et matérielle. »


  • La Compagnie Européenne de Garanties et Cautions chez Natixis utilise SafeKit comme solution de haute disponibilité de ses applications.

    Finance [+]

    La Compagnie Européenne de Garanties et Cautions chez Natixis utilise SafeKit comme solution de haute disponibilité de ses applications.

    Plus de 30 clusters SafeKit sont déployés sur Unix et Windows chez Natixis.

    Bernard Etienne, Responsable de production témoigne :

    “La Compagnie Européenne de Garanties et Cautions gère des applications métiers critiques qui doivent rester disponibles face aux pannes matérielles et logicielles. En effet, nos applications déterminent si une caution peut être délivrée à un particulier contractant un prêt dans une banque ou à une entreprise qui a besoin d'une garantie sur un investissement. Nous avons retenu le produit SafeKit d'Evidian pour assurer la haute disponibilité de nos applications métiers pour 3 raisons principales. C'est un produit simple qui se met en œuvre sur deux serveurs standards. Il ne nécessite pas d'investir des composants matériels spécifiques et coûteux. Et c'est un produit riche qui permet de surveiller finement nos applications métiers et les reprendre en cas de panne matérielle et logicielle.”


  • Fives Syleps met en œuvre la haute disponibilité de son ERP avec SafeKit et déploie la solution dans l'industrie agro-alimentaire.

    Industrie [+]

    Fives Syleps met en œuvre la haute disponibilité de son ERP avec SafeKit et déploie la solution dans l'industrie agro-alimentaire.

    Plus de 20 clusters SafeKit sont déployés sur Linux et Windows avec Oracle.

    Fives Syleps témoigne :

    "Les entreprises automatisées que nous équipons s’appuient sur notre ERP. Il n’est pas envisageable que notre ERP soit hors de service à cause d’une panne informatique. Sinon c’est l’ensemble de l’activité de l’entreprise qui s’arrête.

    Nous avons choisi la solution de haute disponibilité Evidian SafeKit car c’est une solution simple d’utilisation. Elle se met en œuvre sur des serveurs standard et ne contraint pas à utiliser des disques partagés sur un SAN et des boitiers réseau de partage de charge. Elle permet d’écarter les serveurs dans des salles machines distinctes.

    De plus, la solution est homogène pour les plateformes Linux et Windows. Et elle apporte 3 fonctionnalités : le partage de charge entre serveurs, la reprise automatique sur panne et la réplication temps réel des données."


  • Le fournisseur de solutions pour le contrôle aérien, Copperchase, déploie SafeKit pour la haute disponibilité de ses systèmes dans les aéroports.

    Transport aérien [+]

    Le fournisseur de solutions pour le contrôle aérien, Copperchase, déploie SafeKit pour la haute disponibilité de ses systèmes dans les aéroports.

    Plus de 20 clusters SafeKit sont déployés sur Windows.

    Tony Myers, Directeur Business Développement témoigne :

    "En développant des applications pour le contrôle du trafic aérien, Copperchase est dans l'une des activités les plus critiques qui existent. Nous avons absolument besoin que nos applications soient disponibles tout le temps. Nous avons trouvé avec SafeKit une solution simple et complète de clustering qui répond parfaitement à nos besoins. Ce logiciel combine en un seul produit l'équilibrage de charge, la réplication de données en temps réel sans perte de données et le basculement automatique en cas de panne. C'est pourquoi, Copperchase déploie SafeKit dans les aéroports pour le contrôle du trafic aérien au Royaume-Uni et dans les 30 pays où nous sommes présents."


  • L'éditeur de logiciel Wellington IT spécialisé dans les banques coopératives déploie la solution de haute disponibilité SafeKit en Irlande et au Royaume-Uni avec son progiciel.

    Banque [+]

    L'éditeur de logiciel Wellington IT spécialisé dans les banques coopératives déploie la solution de haute disponibilité SafeKit en Irlande et au Royaume-Uni avec son progiciel.

    Plus de 25 clusters SafeKit sont déployés sur Linux avec Oracle.

    Peter Knight, Directeur Commercial témoigne :

    "La continuité d’activité et la résistance au désastre sont une préoccupation majeure pour nos clients utilisant notre application bancaire Locus déployée dans de nombreuses banques en Irlande et au Royaume-Uni. Nous avons trouvé avec SafeKit une solution simple et robuste pour assurer la haute disponibilité et la réplication synchrone et sans perte des données entre deux serveurs. Avec cette solution logicielle, nous ne sommes pas dépendants d’une solution de clustering matérielle spécifique et coûteuse. C’est un outil parfait pour fournir une option de haute disponibilité à une application développée par un éditeur logiciel."


  • La RATP choisit la solution de haute disponibilité et de load balancing SafeKit pour son poste de commande centralisé de la ligne 1 du métro parisien.

    Transport métropolitain [+]

    La RATP choisit la solution de haute disponibilité et de load balancing SafeKit pour son poste de commande centralisé de la ligne 1 du métro parisien.

    20 clusters SafeKit sont déployés sur Windows et Linux.

    Stéphane Guilmin, Responsable de projets témoigne :

    "Projet majeur au sein de la RATP, l’automatisation de la ligne 1 du métro 1 parisien impose que le poste commande centralisé (PCC) soit conçu pour résister aux pannes informatiques. Avec le produit SafeKit, nous avons trouvé trois avantages distinctifs répondant à ce besoin. Il s’agit d’abord d’une solution purement logicielle qui ne nous contraint pas à utiliser des disques partagés sur un SAN et des boitiers réseau de partage de charge. Nous pouvons très simplement séparer nos serveurs dans des salles machines distinctes. Ensuite, cette solution de clustering est homogène pour nos plateformes Windows et Linux. Et SafeKit nous apporte les trois fonctions dont nous avons besoin : le partage de charge entre serveurs, la reprise automatique sur panne et la réplication en temps réel des données."

    Et également, Philippe Marsol, responsable d'intégration, Atos BU Transport, témoigne :

    “SafeKit est un produit simple et puissant pour la haute disponibilité des applications. Nous avons intégré SafeKit dans nos projets critiques comme la supervision de la ligne 4 du métro Parisien (dans le PCC / Poste de Commande et de Contrôle) ou la ligne 1 et 2 à Marseille (dans le CSR / Centre de Supervision du Réseau). Grâce à la simplicité du produit, nous avons gagné du temps dans l'intégration et la validation de la solution et nous avons eu également des réponses rapides à nos questions avec une équipe Evidian réactive."


  • L'intégrateur de logiciels Systel déploie la solution de haute disponibilité SafeKit dans les centres d'appels des pompiers et du SAMU.

    Santé [+]

    L'intégrateur de logiciels Systel déploie la solution de haute disponibilité SafeKit dans les centres d'appels des pompiers et du SAMU.

    Plus de 30 clusters SafeKit sont déployés sur Windows avec SQL Server.

    Marc Pellas, Président Directeur Général témoigne :

    "SafeKit répond parfaitement aux besoins d'un éditeur logiciel. Son principal avantage est d'introduire la haute disponibilité via une option logicielle qui s'ajoute à notre propre suite logicielle multi-plateformes. Ainsi, nous ne sommes pas dépendants d'une solution de clustering matériel spécifique, coûteuse, complexe à installer, difficile à maintenir et différente suivant les environnements clients. Avec SafeKit, nos centres de pompiers sont déployés avec une solution de clustering logiciel intégrée avec notre application, uniforme chez tous nos clients, simple pour les utilisateurs et que nous maîtrisons totalement de l'installation jusqu'au support après vente."


  • La haute disponibilité de l'ERP de l'armée Française est réalisée avec SafeKit à la DGA.

    Gouvernement [+]

    La haute disponibilité de l'ERP de l'armée Française est réalisée avec SafeKit à la DGA.

    14 clusters SafeKit sont déployés sur Windows et Linux.

    Alexandre Barth, Administrateur système témoigne :

    "Notre équipe de production a mis en œuvre sans difficulté la solution SafeKit sur 14 clusters Windows et Unix. Notre activité critique est ainsi sécurisée avec des fonctions de haute disponibilité et de partage de charge. Les avantages de ce produit sont d'une part la simplicité de mise en œuvre et d'administration des clusters et d'autre part, l'uniformité de la solution face aux systèmes d'exploitation hétérogènes."


Différentiateurs de la solution de haute disponibilité SafeKit par rapport à la concurrence

Cluster miroir d'Evidian SafeKit avec réplication de fichiers temps réel et reprise sur panne

Économisez avec 3 produits en 1 >

Économisez avec 3 produits en 1

Like  Le logiciel de haute disponibilité SafeKit sur Windows et Linux permet d'économiser sur 1/ les stockages partagés ou répliqués externes coûteux, 2/ les boîtiers de load balancing, 3/ les éditions entreprise des OS et des bases de données

Like  SafeKit offre toutes les fonctionnalités de clustering par logiciel : réplication de fichiers temps réel synchrone, surveillance des défaillances serveur / réseau / logiciel, redémarrage automatique de l'application, adresse IP virtuelle basculée en cas de panne pour rerouter les clients

Configuration très simple >

Configuration très simple

Like   La configuration du cluster est très simple et réalisée au moyen du module applicatif mirror.safe.

Like   Toute la configuration des clusters se fait à l'aide d'une console d'administration web centralisée simple

Like   Il n'y a pas de contrôleur de domaine ou d'Active Directory à configurer comme avec Microsoft cluster

Réplication synchrone >

Synchronous replication

Like  La réplication en temps réel est synchrone sans perte de données en cas de panne

Dislike  Ce n'est pas le cas avec une réplication asynchrone

Retour d'un serveur tombé en panne totalement automatisé (failback) >

Automatic failback

Like  Suite à une panne lorsqu'un serveur reboot, le retour du serveur tombé en panne se fait de manière totalement automatique dans le cluster avec une resynchronisation de ses données et sans arrêter l'application sur le seul serveur restant

Dislike  Ce n'est pas le cas avec la plupart des solutions de réplication particulièrement celles avec une réplication au niveau base de données. Des opérations manuelles sont requises pour resynchroniser le serveur défaillant. Il peut être même nécessaire d'arrêter l'application sur le seul serveur restant

Réplication de n'importe quel type de données >

Any replicated data

Like  La réplication fonctionne pour les bases de données mais aussi pour n'importe quel fichier qui doit-être répliqué

Dislike  Ce n'est pas le cas pour la réplication au niveau base de données

Réplication de fichiers vs réplication de disque >

File replication vs disk replication

Like  La réplication est basée sur des répertoires de fichiers qui peuvent être localisés n'importe où (même dans le disque système)

Disike  Ce n'est pas le cas avec la réplication de disque où une configuration spéciale de l'application est nécessaire pour placer les données applicatives dans un disque spécial

Réplication de fichiers vs disque partagé >

File replication vs shared disk

Like  Les serveurs peuvent être placés dans deux sites distants

Dislike  Ce n'est pas le cas avec les solutions à disque partagé

Sites distants et adresse IP virtuelle >

Remote sites

Like  Toutes les fonctionnalités de clustering SafeKit fonctionnent pour 2 serveurs sur des sites distants. La réplication requiert un réseau de type LAN étendu (latence = performance de la réplication synchrone, bande passante = performance de la resynchronisation après panne).

Like   Si les deux serveurs sont connectés au même réseau IP via un réseau local étendu entre deux sites distants, l'adresse IP virtuelle de SafeKit fonctionne avec une redirection au niveau 2

Like   Si les deux serveurs sont connectés à deux réseaux IP différents entre deux sites distants, l'adresse IP virtuelle peut être configurée au niveau d'un load balancer avec le "health check" de SafeKit.

Quorum >
Quorum

Like   La solution fonctionne avec seulement 2 serveurs et pour le quorum (isolation réseau entre 2 sites), un simple split brain checker vers un routeur est offert pour supporter une seule exécution de l'application critique

Dislike  Ce n'est pas le cas pour la plupart des solutions de clustering où un 3ième serveur est nécessaire pour le quorum

Cluster actif/actif >

Active active mirror cluster

Like  Le serveur secondaire n'est pas dédié au redémarrage du serveur primaire. Le cluster peut être actif-actif en exécutant deux modules miroirs différents

Dislike  Ce n'est pas le cas avec un système fault-tolerant dans lequel le secondaire est dédié à l'exécution de la même application synchronisée au niveau instruction

Solution de haute disponibilité uniforme >

Uniform high availability solution

Like  SafeKit implémente un cluster miroir avec une réplication et une reprise sur panne. Mais il implémente aussi un cluster ferme avec load balancing et reprise sur panne.

Like  Ainsi une architecture N-tiers peut-être rendue hautement disponible et load balancée avec la même solution sur Windows et Linux (même installation, configuration, administration avec la console SafeKit ou les commandes en ligne). Ceci est unique sur le marché

Dislike  Ce n'est pas le cas avec une architecture mixant des technologies différentes pour le load balancing, la réplication et la reprise sur panne

RTO / RPO >

RTO/RPO

Like    SafeKit met en œuvre un redémarrage rapide de l'application en cas de panne : autour d'1 mn ou moins (voir RTO/RPO ici)

Dislike  Un redémarrage rapide de l'application n'est pas assuré avec une réplication complète de machines virtuelles. En cas de panne d'un hyperviseur, une machine virtuelle doit être rebootée sur un nouvel hyperviseur avec un temps de redémarrage lié au reboot de l'OS comme avec VMware HA ou Hyper-V cluster

Cluster logiciel vs cluster matériel >

Un cluster simple avec SafeKit installé sur deux serveurs

Like  Un cluster logiciel simple avec le package SafeKit installé sur deux serveurs

Cluster matériel avec stockage SAN externe et load balancer

Dislike  Un cluster matériel complexe avec du stockage externe ou des boîtiers de load balancing

Cluster de type "shared nothing"" vs cluster à disque partagé >

SafeKit est un cluster de type shared-nothing: simple à déployer même dans des sites distants

Like  SafeKit est un cluster sans partage de type "shared-nothing": simple à déployer même sur des sites distants

Un cluster à disque partagé est complexe à déployer

Dislike  Un cluster à disque partagé est complexe à déployer

Haute disponibilité applicative vs Haute disponibilité de machines virtuelles complètes >

La haute disponibilité applicative de SafeKit supporte les pannes matérielles, logicielles et les erreurs humaines avec un temps de reprise rapide

Like  La haute disponibilité applicative supporte les pannes matérielles et logicielles avec un temps de reprise rapide (RTO autour d'1 mn ou moins)
Upgrade en douceur de l'application et de l'OS possible serveur par serveur (les versions N et N+1 peuvent coexister)

La haute disponibilité de machines virtuelles (VM) complètes supporte seulement les pannes matérielles avec un reboot de la VM et un temps de reprise indéfini

Dislike  La haute disponibilité de machines virtuelles complètes (VM) supporte seulement les pannes matérielles avec un reboot de la VM et un temps de reprise dépendant du reboot de l'OS.
Upgrade en douceur impossible

Haute disponibilité vs tolérance aux fautes >

SafeKit high availability vs fault-tolerance

Like  Aucun serveur dédié avec SafeKit. Chaque serveur peut être le serveur de reprise de l'autre serveur.
Exception logicielle avec redémarrage dans un autre environnement OS.
Upgrade en douceur de l'application et de l'OS possible serveur par serveur (les versions N et N+1 peuvent coexister)

Fault tolerance system

Dislike  Serveur secondaire dédié à l'exécution de la même application synchronisée au niveau instruction.
Exception logicielle sur les 2 serveurs en même temps.
Upgrade en douceur impossible

Réplication synchrone vs réplication asynchrone >

SafeKit met en œuvre une réplication temps réel synchrone sans perte de données en cas de panne

Like  SafeKit met en œuvre une réplication temps réel synchrone sans perte de données en cas de panne

Avec une réplication asynchrone, il y a une perte de données en cas de panne

Dislike  Avec une réplication asynchrone, il y a une perte de données en cas de panne

Réplication de fichiers au niveau octet vs réplication de disque au niveau du bloc >

SafeKit met en œuvre la réplication de fichiers au niveau octet et se configure simplement avec des répertoires à répliquer même sur le disque système

Like  SafeKit met en œuvre la réplication de fichiers temps réel au niveau octet et se configure simplement avec les répertoires applicatifs à répliquer même dans le disque système

La réplication de disque au niveau du bloc est complexe et nécessite de mettre les données de l'application dans un disque spécial

Dislike  La réplication de disque au niveau bloc est complexe à configurer et nécessite de mettre les données de l'application dans un disque spécial

Heartbeat, reprise sur panne et quorum pour éviter 2 serveurs maîtres >

Pour éviter 2 serveur maîtres, SafeKit propose un simple split brain checker configuré sur un routeur

Like  Pour éviter 2 serveur maîtres, SafeKit propose un simple "split brain checker" configuré sur un routeur

Pour éviter 2 serveur maîtres, les autres clusters demande une configuration complexe avec une 3ième machine, un disque de quorum spécial, un reset hardware distant

Dislike  Pour éviter 2 serveur maîtres, les autres clusters demandent une configuration complexe avec une 3ième machine, un disque de quorum spécial, une interconnexion spéciale

Adresse IP virtuelle
primaire/secondaire, load balancing réseau, basculement sur panne >

Aucune configuration réseau particulière n'est requise dans un cluster SafeKit pour l'équilibrage de la charge réseau

Like  Aucun serveur proxy dédié et aucune configuration réseau particulière ne sont requis dans un cluster SafeKit pour mettre en œuvre des adresses IP virtuelles

Une configuration réseau spéciale est requise dans d'autres clusters pour l'équilibrage de la charge réseau

Dislike  Une configuration réseau spéciale est requise dans d'autres clusters pour mettre en œuvre des adresses IP virtuelles. A noter que SafeKit propose un vérificateur d'état adapté aux équilibreurs de charge

Démonstrations de solutions de haute disponibilité avec SafeKit

Webinaire SafeKit

Ce webinaire présente en 10 minutes Evidian SafeKit.

Dans ce webinaire, vous comprendrez :

  • les clusters ferme et miroir
  • les économies par rapport aux solutions de clustering matériel
  • les meilleurs cas d'utilisation
  • le processus d'intégration d'une nouvelle application

Cluster Microsoft SQL Server

Cette vidéo montre la configuration d'un module miroir avec réplication temps réel synchrone et reprise sur panne.

La réplication de fichiers et le basculement sont configurés pour Microsoft SQL Server mais fonctionnent de la même manière pour d'autres bases de données.

Essai gratuit ici

Cluster Apache

Cette vidéo montre une configuration d'un module ferme avec équilibrage de charge et reprise sur panne.

L'équilibrage de charge et le basculement sont configurés pour Apache mais fonctionnent de la même manière pour d'autres services Web.

Essai gratuit ici

Cluster Hyper-V

Cette vidéo montre un cluster Hyper-V avec des réplications complètes de machines virtuelles.

Les machines virtuelles peuvent s'exécuter sur les deux serveurs Hyper-V et elles sont redémarrées en cas de panne.

Essai gratuit ici

Modules SafeKit pour des solutions de haute disponibilité plug&play