Comment le logiciel Evidian SafeKit met en œuvre simplement la haute disponibilité de Kubernetes entre deux serveurs redondants ?
La solution pour Kubernetes
Evidian SafeKit apporte la haute disponibilité à Kubernetes entre deux serveurs redondants. Cet article explique comment implémenter rapidement un cluster Kubernetes sur 2 nœuds sans stockage externe NFS, sans base de données de configuration externe et sans compétences spécifiques.
Notez que SafeKit est un produit générique. Vous pouvez implémenter avec le même produit la réplication en temps réel et le basculement de répertoires et de services, de bases de données, de conteneurs Docker, de machines virtuelles Hyper-V ou KVM complètes, d'applications dans le Cloud.
Cette solution de clustering est reconnue comme la plus simple à mettre en œuvre par nos clients et partenaires. La solution SafeKit est la solution parfaite pour exécuter des applications Kubernetes sur site et sur 2 nœuds.
Nous avons choisi K3S comme moteur Kubernetes car il s'agit d'une solution légère pour l'IoT et le Edge computing.
Le module miroir k3s.safe implémente :
2 maîtres/agents K3S actifs exécutant des pods
la réplication de la base de données de configuration de K3S (MariaDB)
la réplication des volumes persistants (implémentée par la classe "NFS client dynamic provisionner storage class: nfs-client")
l'adresse IP virtuelle, le basculement automatique, la restauration automatique après panne
Comment ça marche ?
Le tableau suivant explique comment la solution fonctionne sur 2 nœuds. D'autres nœuds avec des agent K3S (sans SafeKit) peuvent être ajoutés pour une scalabilité horizontale.
Composants Kubernetes
Noeud SafeKit PRIM
Noeud SafeKit SECOND
K3S (master et agent) exécute des pods sur le nœud primaire
K3S (master et agent) exécute des pods sur le nœud secondaire
Le serveur NFS s'exécute sur le nœud primaire avec :
une IP virtuelle/port NFS
un export de partage NFS
des volumes persistants K3S
Les volumes persistants sont répliqués de manière synchrone et en temps réel par SafeKit sur le nœud secondaire
Le serveur MariaDB s'exécute sur le nœud primaire avec :
une IP virtuelle/port MariaDB
la base de données de configuration de K3S
La base de configuration est répliquée de manière synchrone et en temps réel par SafeKit sur le nœud secondaire
Une solution simple
SafeKit est la solution de haute disponibilité la plus simple pour exécuter des applications Kubernetes sur 2 nœuds et sur site.
SafeKit
Avantages
Réplication synchrone en temps réel pour les volumes persistants
Pas de stockage NAS/NFS externe pour les volumes persistants
Seulement 2 nœuds pour la haute disponibilité de Kubernetes
Pas besoin de 3 nœuds comme avec la base de données etcd
Même produit simple pour l'adresse IP virtuelle, la réplication, le basculement, la restauration après panne, l'administration, la maintenance
Évitez les différentes technologies pour l'IP virtuelle (metal-lb, BGP), la haute disponibilité des volumes persistants, la haute disponibilité de la base de données de configuration
Prend en charge la reprise après sinistre avec deux nœuds distants
Cette solution indépendante de la plateforme est idéale pour un partenaire revendant une application critique et qui souhaite proposer une option de redondance et de haute disponibilité simple à déployer auprès de nombreux clients.
Avec de nombreuses références dans de nombreux pays gagnées par des partenaires, SafeKit s'est avéré être la solution la plus simple à mettre en œuvre pour la redondance et la haute disponibilité des logiciels de gestion des bâtiments, vidéosurveillance, contrôle d'accès, systèmes SCADA...
Comment fonctionne le cluster miroir de SafeKit avec Kubernetes ?
Etape 1. Réplication de données temps réel et continue
Cette étape correspond à la figure suivante. Le serveur 1 (PRIM) exécute les composants Kubernetes décrits dans le tableau précédent. Les utilisateurs sont connectés à l'adresse IP virtuelle du cluster miroir. SafeKit réplique les fichiers ouverts par les composants Kubernetes. Seules les modifications faites par les composants à l'intérieur des fichiers sont répliquées en continue à travers le réseau, limitant ainsi le trafic.
Avec la réplication de données temps réel de SafeKit, seuls les noms des répertoires de fichiers sont à configurer dans le module miroir. Les répertoires à répliquer peuvent être localisés dans le disque système. SafeKit implémente une réplication synchrone sans perte de données en cas de panne contrairement à une réplication asynchrone.
Etape 2. Basculement automatique
Lorsque le serveur 1 est défaillant, SafeKit bascule l'adresse IP virtuelle du cluster sur le serveur 2 et redémarre automatiquement les composants Kubernetes. Les composants retrouvent les fichiers répliqués à jour grâce à la réplication continue synchrone réalisée par SafeKit entre le serveur 1 et le serveur 2. Les composants Kubernetes poursuivent leur exécution sur le serveur 2 en modifiant localement leurs fichiers qui ne sont plus répliqués vers le serveur 1.
Le temps de basculement est égal au temps de détection de la panne (time-out configuré à 30 secondes par défaut) et au temps de relance des composants. Sur la machine secondaire, il n'y a pas de temps lié au remontage du système de fichiers ou au passage des procédures de recovery du système de fichiers, comme avec les solutions de réplication de disques.
Etape 3. Réintégration après panne
A la reprise après panne du serveur 1 (réintégration du serveur 1), SafeKit resynchronise automatiquement les fichiers de ce serveur à partir de l'autre serveur. Seuls les fichiers modifiés sur le serveur 2 pendant l'inactivité du serveur 1 sont resynchronisés. La réintégration du serveur 1 se fait sans arrêter l'exécution des composants Kubernetes sur le serveur 2.
Si SafeKit a été proprement arrêté sur le serveur 1, alors à son redémarrage, seules les zones modifiées à l'intérieur des fichiers sont resynchronisées suivant des bitmaps de modification.
Si le serveur 1 a crashé (power off), les bitmaps de modification ne sont pas sûres et elles ne sont donc pas utilisées. Tous les fichiers qui ont été modifiés depuis le moment de l'arrêt sont resynchronisés.
Etape 4. Retour à la normale avec réplication de données temps réel
Après la réintégration, les fichiers sont à nouveau en mode miroir comme à l'étape 1. Le système est en haute disponibilité avec les composants Kubernetes qui s'exécutent sur le serveur 2 et avec comme secours le serveur 1. Les modifications des composants dans les fichiers sont répliquées en temps réel du serveur 2 vers le serveur 1.
Si l'administrateur souhaite que les composants Kubernetes s'exécutent en priorité sur le serveur 1, il peut exécuter une commande de basculement, soit manuellement à un moment opportun, soit automatiquement par configuration.
Essai gratuit de SafeKit + module miroir pour Kubernetes + guide d'installation rapide
Guide d'installation rapide de SafeKit avec Kubernetes
Étape 1. Téléchargez les packages
Téléchargez la version gratuite de SafeKit (safekit_xx.bin)
Télécharger le module Linux
Télécharger le script k3sconfig.sh
Documentation (pptx)
Remarque : le script k3sconfig.sh installe K3S, MariaDB, NFS, SafeKit sur 2 nœuds Linux Ubuntu 20.04.
Sur 2 nœuds Linux Ubuntu 20.04, en tant que root :
Assurez-vous que le nœud a accès à Internet (peut-être via un proxy)
Copiez k3sconfig.sh, k3s.safe et le package safekit_xx.bin dans un répertoire et placez-vous dedans (cd)
Renommer le fichier .bin en "safekit.bin"
Assurez-vous que k3sconfig.sh et safekit.bin sont exécutables.
Modifiez le script k3sconfig.sh et personnalisez les variables d'environnement en fonction de votre environnement
Exécuter sur les deux nœuds : ./k3sconfig.sh prereq
Le script va :
Installer les packages Debian requis : alien, nfs-kernel-server, nfs-common, mariadb-server
Sécuriser MariaDB
Créer des répertoires pour la réplication de fichiers
Préparer le serveur NFS pour le partage des répertoires répliqués
Installer SafeKit
Étape 3. Sur le premier nœud
Exécutez sur le premier nœud : ./k3sconfig.sh first
Le script va :
Créer la base de données de configuration K3S et l'utilisateur k3s
Créer le fichier de stockage des volumes persistants (fichier fragmenté) et le formater en tant que système de fichiers xfs
Créer la configuration du cluster safekit et l'appliquer
Installer et configurer le module k3s.safe sur le cluster
Démarrer le module k3s en tant que "prim" sur le premier nœud
Télécharger, installer et démarrer k3s
Télécharger et installer la charte Helm nfs-subdir-external-provisioner
Afficher le jeton K3S (à utiliser lors de la phase d'installation du deuxième nœud)
Étape 4. Sur le deuxième nœud
Exécutez sur le deuxième nœud : ./k3sconfig.sh second <token>
<token> est la chaîne affichée à la fin de l'exécution de "k3sconfig.sh first" sur le premier nœud
Le script va :
S'assurer que le module k3s est démarré en tant que prim sur le premier nœud
Installer k3s sur le deuxième nœud
Démarrer le module k3s
Étape 5. Vérifiez que le module SafeKit k3s est en cours d'exécution sur les deux nœuds
Vérifiez avec cette commande sur les deux nœuds : /opt/safekit/safekit –H "*" state
La réponse doit être similaire à l'image.
/opt/safekit/safekit –H "*" state
---------------- Server=http://10.0.0.20:9010 ----------------
admin action=exec
--------------------- k3s State ---------------------
Local (127.0.0.1) : PRIM (Service : Available)(Color : Green)
Success
---------------- Server=http://10.0.0.21:9010 ----------------
admin action=exec
--------------------- k3s State ---------------------
Local (127.0.0.1) : SECOND (Service : Available)(Color : Green)
Success
Étape 6. Démarrez la console Web SafeKit pour administrer le cluster
Connectez un navigateur à l'url de la console Web SafeKit http://server0-IP:9010
Vous devriez voir une page similaire à l'image.
Étape 7. Test
Vérifiez avec les lignes de commande Linux que K3S est démarré sur les deux nœuds et que MariaDB est démarré sur le nœud principal.
Pour tester un basculement, arrêtez le nœud PRIM en faisant défiler le menu de server0 et en cliquant sur Stop. Vérifiez qu'il y a un basculement sur server1 qui devient ALONE et exécute tous les services.
Pour tester le retour après panne, démarrez server0 en faisant défiler son menu et en cliquant sur Start. Vérifiez qu'il devient SECOND.
Pour tester l'échange des rôles PRIM et SECOND, faites défiler le menu de server1 et cliquez sur Swap.
Étape 8. Essayez le cluster avec une application Kubernetes telle que WordPress
Vous avez l'exemple d'une installation WordPress : un portail web avec une base de données implémentée par des pods.
Vous pouvez déployer votre propre application de la même manière.
WordPress est automatiquement hautement disponible :
avec ses données (php + base de données) dans des volumes persistants répliqués en temps réel par SafeKit
avec une adresse IP virtuelle pour accéder au site WordPress pour les utilisateurs
avec basculement automatique et réintégration automatique
Remarques:
Le chart WordPress définit un service à load balancer qui écoute sur les ports <service.port> et <service.httpsport>.
WordPress est accessible via l'url : http://<virtual-ip>:<service.port>.
L'IP virtuelle est gérée par SafeKit et automatiquement basculée en cas de panne.
Par défaut, K3S implémente des load balancers avec Klipper.
Klipper écoute sur <virtual ip>:<service.port> et achemine les paquets TCP/IP vers l'adresse IP et le port du pod WordPress qu'il a sélectionné.
Dans l'onglet Advanced Configuration, vous pouvez modifier les fichiers internes du module : bin/start_prim et bin/stop_prim et conf/userconfig.xml.
Si vous apportez des modifications dans les fichiers internes, vous devez appliquer la nouvelle configuration par un clic droit sur l'icône/xxx sur le côté gauche (voir image) : l'interface vous permettra de redéployer les fichiers sur les deux serveurs.
Démonstrations de solutions de redondance et de haute disponibilité
Webinaire SafeKit
Ce webinaire présente en 2 minutes Evidian SafeKit.
Dans ce webinaire, vous comprendrez les clusters ferme et miroir de SafeKit.
Cluster Microsoft SQL Server
Cette vidéo montre la configuration d'un module miroir avec réplication temps réel synchrone et reprise sur panne.
La réplication de fichiers et le basculement sont configurés pour Microsoft SQL Server mais fonctionnent de la même manière pour d'autres bases de données.
Le produit très simple à déployer pour un revendeur
« Noemis, distributeur à valeur ajoutée de la vidéosurveillance Milestone, a aidé les intégrateurs à déployer la solution de redondance SafeKit sur de nombreux projets tels que la surveillance des villes, les datacenters, les stades et autres infrastructures critiques. SafeKit est un excellent produit et Evidian fournit un excellent support. »
Le produit qui fait gagner du temps à un intégrateur de systèmes
Gestion vidéo, contrôle d’accès, gestion des bâtiments [+]
La sécurité des personnes est directement associée à la bonne exécution des logiciels de sécurité. C’est pourquoi, ils ont besoin de redondance et de haute disponibilité. SafeKit est reconnu comme la solution de redondance la plus simple par nos partenaires qui l’ont déployée avec :
“SafeKit d’Evidian est une solution professionnelle facilitant la redondance du logiciel de vidéo Milestone. La solution est facile à déployer, facile à maintenir et peut être ajoutée à une installation existante. Nous avons assisté des intégrateurs pour déployer la solution sur de nombreux projets tels que la surveillance urbaine, les centres de données, les stades et d’autres infrastructures critiques. SafeKit est un excellent produit, et Evidian fournit un excellent support.”
Télévision numérique [+]
Harmonic utilise SafeKit comme une offre de haute disponibilité logicielle OEM dans ses solutions de télédiffusion à travers la TNT, les satellites, le câble et les réseaux IP.
Philippe Vidal, Responsable produit, Harmonic témoigne :
« SafeKit est le logiciel de clustering d’application idéal pour un éditeur logiciel qui cherche une solution de haute disponibilité simple et économique. Nous déployons SafeKit dans le monde entier et nous avons actuellement plus de 80 clusters SafeKit sur Windows avec notre application critique de télédiffusion à travers la TNT, les satellites, le câble et les réseaux IP. SafeKit réalise la réplication temps réel et continue de notre base de données et la reprise automatique de notre application sur panne logicielle et matérielle. »
Plus de 30 clusters SafeKit sont déployés sur Unix et Windows chez Natixis.
Bernard Etienne, Responsable de production témoigne :
“La Compagnie Européenne de Garanties et Cautions gère des applications métiers critiques qui doivent rester disponibles face aux pannes matérielles et logicielles. En effet, nos applications déterminent si une caution peut être délivrée à un particulier contractant un prêt dans une banque ou à une entreprise qui a besoin d’une garantie sur un investissement. Nous avons retenu le produit SafeKit d’Evidian pour assurer la haute disponibilité de nos applications métiers pour 3 raisons principales. C’est un produit simple qui se met en œuvre sur deux serveurs standards. Il ne nécessite pas d’investir des composants matériels spécifiques et coûteux. Et c’est un produit riche qui permet de surveiller finement nos applications métiers et les reprendre en cas de panne matérielle et logicielle.”
Plus de 20 clusters SafeKit sont déployés sur Linux et Windows avec Oracle.
Fives Syleps témoigne :
“Les entreprises automatisées que nous équipons s’appuient sur notre ERP. Il n’est pas envisageable que notre ERP soit hors de service à cause d’une panne informatique. Sinon c’est l’ensemble de l’activité de l’entreprise qui s’arrête.
Nous avons choisi la solution de haute disponibilité Evidian SafeKit car c’est une solution simple d’utilisation. Elle se met en œuvre sur des serveurs standard et ne contraint pas à utiliser des disques partagés sur un SAN et des boitiers réseau de partage de charge. Elle permet d’écarter les serveurs dans des salles machines distinctes.
De plus, la solution est homogène pour les plateformes Linux et Windows. Et elle apporte 3 fonctionnalités : le partage de charge entre serveurs, la reprise automatique sur panne et la réplication temps réel des données.”
Plus de 20 clusters SafeKit sont déployés sur Windows.
Tony Myers, Directeur Business Développement témoigne :
“En développant des applications pour le contrôle du trafic aérien, Copperchase est dans l’une des activités les plus critiques qui existent. Nous avons absolument besoin que nos applications soient disponibles tout le temps. Nous avons trouvé avec SafeKit une solution simple et complète de clustering qui répond parfaitement à nos besoins. Ce logiciel combine en un seul produit l’équilibrage de charge, la réplication de données en temps réel sans perte de données et le basculement automatique en cas de panne. C’est pourquoi, Copperchase déploie SafeKit dans les aéroports pour le contrôle du trafic aérien au Royaume-Uni et dans les 30 pays où nous sommes présents.”
Plus de 25 clusters SafeKit sont déployés sur Linux avec Oracle.
Peter Knight, Directeur Commercial témoigne :
“La continuité d’activité et la résistance au désastre sont une préoccupation majeure pour nos clients utilisant notre application bancaire Locus déployée dans de nombreuses banques en Irlande et au Royaume-Uni. Nous avons trouvé avec SafeKit une solution simple et robuste pour assurer la haute disponibilité et la réplication synchrone et sans perte des données entre deux serveurs. Avec cette solution logicielle, nous ne sommes pas dépendants d’une solution de clustering matérielle spécifique et coûteuse. C’est un outil parfait pour fournir une option de haute disponibilité à une application développée par un éditeur logiciel.”
20 clusters SafeKit sont déployés sur Windows et Linux.
Stéphane Guilmin, Responsable de projets témoigne :
“Projet majeur au sein de la RATP, l’automatisation de la ligne 1 du métro 1 parisien impose que le poste commande centralisé (PCC) soit conçu pour résister aux pannes informatiques. Avec le produit SafeKit, nous avons trouvé trois avantages distinctifs répondant à ce besoin. Il s’agit d’abord d’une solution purement logicielle qui ne nous contraint pas à utiliser des disques partagés sur un SAN et des boitiers réseau de partage de charge. Nous pouvons très simplement séparer nos serveurs dans des salles machines distinctes. Ensuite, cette solution de clustering est homogène pour nos plateformes Windows et Linux. Et SafeKit nous apporte les trois fonctions dont nous avons besoin : le partage de charge entre serveurs, la reprise automatique sur panne et la réplication en temps réel des données.”
Et également, Philippe Marsol, responsable d’intégration, Atos BU Transport, témoigne :
“SafeKit est un produit simple et puissant pour la haute disponibilité des applications. Nous avons intégré SafeKit dans nos projets critiques comme la supervision de la ligne 4 du métro Parisien (dans le PCC / Poste de Commande et de Contrôle) ou la ligne 1 et 2 à Marseille (dans le CSR / Centre de Supervision du Réseau). Grâce à la simplicité du produit, nous avons gagné du temps dans l’intégration et la validation de la solution et nous avons eu également des réponses rapides à nos questions avec une équipe Evidian réactive.”
Plus de 30 clusters SafeKit sont déployés sur Windows avec SQL Server.
Marc Pellas, Président Directeur Général témoigne :
“SafeKit répond parfaitement aux besoins d’un éditeur logiciel. Son principal avantage est d’introduire la haute disponibilité via une option logicielle qui s’ajoute à notre propre suite logicielle multi-plateformes. Ainsi, nous ne sommes pas dépendants d’une solution de clustering matériel spécifique, coûteuse, complexe à installer, difficile à maintenir et différente suivant les environnements clients. Avec SafeKit, nos centres de pompiers sont déployés avec une solution de clustering logiciel intégrée avec notre application, uniforme chez tous nos clients, simple pour les utilisateurs et que nous maîtrisons totalement de l’installation jusqu’au support après vente.”
14 clusters SafeKit sont déployés sur Windows et Linux.
Alexandre Barth, Administrateur système témoigne :
“Notre équipe de production a mis en œuvre sans difficulté la solution SafeKit sur 14 clusters Windows et Unix. Notre activité critique est ainsi sécurisée avec des fonctions de haute disponibilité et de partage de charge. Les avantages de ce produit sont d’une part la simplicité de mise en œuvre et d’administration des clusters et d’autre part, l’uniformité de la solution face aux systèmes d’exploitation hétérogènes.”
Différentiateurs de la solution de haute disponibilité SafeKit par rapport à la concurrence
Différenciateurs clés d'un cluster miroir avec réplication et reprise sur panne
Cluster miroir d'Evidian SafeKit avec réplication de fichiers temps réel et reprise sur panne
Le logiciel de haute disponibilité SafeKit sur Windows et Linux permet d'économiser sur :
les stockages partagés ou répliqués externes coûteux,
les boîtiers de load balancing,
les éditions entreprise des OS et des bases de données
SafeKit offre toutes les fonctionnalités de clustering par logiciel : réplication de fichiers temps réel synchrone, surveillance des défaillances serveur / réseau / logiciel, redémarrage automatique de l'application, adresse IP virtuelle basculée en cas de panne pour rerouter les clients
La configuration du cluster est très simple et réalisée au moyen de modules applicatifs. De nouveaux services et de nouveaux répertoires répliqués peuvent être ajoutés à un module applicatif existant pour compléter une solution de haute disponibilité
Toute la configuration des clusters se fait à l'aide d'une console d'administration web centralisée simple
Il n'y a pas de contrôleur de domaine ou d'Active Directory à configurer comme avec Microsoft cluster
Suite à une panne lorsqu'un serveur reboot, le retour du serveur tombé en panne se fait de manière totalement automatique dans le cluster avec une resynchronisation de ses données et sans arrêter l'application sur le seul serveur restant
Ce n'est pas le cas avec la plupart des solutions de réplication particulièrement celles avec une réplication au niveau base de données. Des opérations manuelles sont requises pour resynchroniser le serveur défaillant. Il peut être même nécessaire d'arrêter l'application sur le seul serveur restant
La réplication est basée sur des répertoires de fichiers qui peuvent être localisés n'importe où (même dans le disque système)
Ce n'est pas le cas avec la réplication de disque où une configuration spéciale de l'application est nécessaire pour placer les données applicatives dans un disque spécial
Toutes les fonctionnalités de clustering SafeKit fonctionnent pour 2 serveurs sur des sites distants. La réplication requiert un réseau de type LAN étendu (latence = performance de la réplication synchrone, bande passante = performance de la resynchronisation après panne).
Si les deux serveurs sont connectés au même réseau IP via un réseau local étendu entre deux sites distants,
l'adresse IP virtuelle de SafeKit fonctionne avec une redirection au niveau 2
Si les deux serveurs sont connectés à deux réseaux IP différents entre deux sites distants, l'adresse IP virtuelle peut être configurée au niveau d'un load balancer avec le "health check" de SafeKit.
La solution fonctionne avec seulement 2 serveurs et pour le quorum (isolation réseau entre 2 sites),
un simple split brain checker vers un routeur est offert pour supporter une seule exécution de l'application critique
Ce n'est pas le cas pour la plupart des solutions de clustering où un 3ième serveur est nécessaire pour le quorum
Le serveur secondaire n'est pas dédié au redémarrage du serveur primaire. Le cluster peut être actif-actif en exécutant deux modules miroirs différents
Ce n'est pas le cas avec un système fault-tolerant dans lequel le secondaire est dédié à l'exécution de la même application synchronisée au niveau instruction
SafeKit implémente un cluster miroir avec une réplication et une reprise sur panne. Mais il implémente aussi
un cluster ferme avec load balancing et reprise sur panne.
Ainsi une architecture N-tiers peut-être rendue hautement disponible et load balancée avec la même solution sur Windows et Linux (même installation, configuration, administration avec la console SafeKit ou les commandes en ligne). Ceci est unique sur le marché
Ce n'est pas le cas avec une architecture mixant des technologies différentes pour le load balancing, la réplication et la reprise sur panne
SafeKit met en œuvre un redémarrage rapide de l'application en cas de panne : autour d'1 mn ou moins
Un redémarrage rapide de
l'application n'est pas assuré avec une réplication complète de machines virtuelles. En cas de panne d'un hyperviseur, une machine virtuelle doit être rebootée sur un nouvel hyperviseur avec un temps de redémarrage lié au reboot de l'OS comme avec VMware HA ou Hyper-V cluster
Différenciateurs clés d'un cluster ferme avec équilibrage de charge et reprise sur panne
Cluster ferme d'Evidian SafeKit avec load balancing et reprise sur panne
La solution ne nécessite pas de load balancer, ni de serveur proxy en amont de la ferme pour implémenter le load balancing.
SafeKit est installé directement sur les serveurs applicatifs à load balancer. Le load balancing est basé sur une adresse IP virtuelle/adresse MAC Ethernet standard et fonctionne avec des serveurs physiques et des machines virtuelles sur Windows et Linux sans configuration réseau spéciale
Ce n'est pas le cas avec les load balancers réseau
Ce n'est pas le cas avec les proxys dédiés sur Linux
La solution inclut toutes les fonctionnalités de clustering : adresse IP virtuelle, load balancing sur adresse IP client ou sur sessions, surveillance des défaillances serveurs / réseaux / logicielles, redémarrage automatique de l'application avec un temps de reprise rapide, une option de réplication avec un module miroir
Ce n'est pas le cas avec les autres solutions de load balancing. Elles sont capables de réaliser le load balancing mais elle n'inclut pas une solution de clustering complète
avec des scripts de redémarrage et un redémarrage automatique de l'application en cas de défaillance. Elles n'offrent pas l'option de réplication
La configuration du cluster est très simple et réalisée au moyen de modules applicatifs. Il n'y a pas de contrôleur de domaine et d'Active Directory à configurer sur Windows. La solution fonctionne sur Windows et Linux
Si les serveurs sont connectés au même réseau IP via un réseau local étendu entre des sites distants,
l’adresse IP virtuelle de SafeKit fonctionne avec un équilibrage de charge au niveau 2
Si les serveurs sont connectés à des réseaux IP différents entre des sites distants, l'adresse IP virtuelle peut être configurée au niveau d'un load balancer à l'aide du "health check" de SafeKit. Ainsi, vous pouvez profiter de toutes les fonctionnalités de clustering de SafeKit, notamment la surveillance et la reprise automatique de l'application critique sur les serveurs applicatifs
SafeKit implémente un cluster ferme avec load balancing et reprise sur panne. Mais il implémente aussi un cluster miroir avec réplication et reprise sur panne.
Ainsi une architecture N-tiers peut-être rendue hautement disponible et load balancée avec la même solution sur Windows et Linux (même installation, configuration, administration avec la console SafeKit ou avec les commandes en ligne). Ceci est unique sur le marché
Ce n'est pas le cas avec une architecture mixant des technologies différentes pour le load balancing, la réplication et la reprise sur panne
Différenciateurs clés de la technologie de haute disponibilité SafeKit
La haute disponibilité applicative supporte les pannes matérielles et logicielles avec un temps de reprise rapide (RTO autour d'1 mn ou moins)
La haute disponibilité applicative nécessite de définir des scripts de redémarrage par application et des dossiers à répliquer (modules applicatifs SafeKit).
La haute disponibilité de machines virtuelles complètes (VM) supporte seulement les pannes matérielles avec un reboot de la VM et un temps de reprise dépendant du reboot de l'OS.
Pas de scripts de redémarrage à définir avec des machines virtuelles complètes en haute disponibilité (modules SafeKit hyperv.safe ou kvm.safe). Les hyperviseurs sont actif/actif avec simplement plusieurs machines virtuelles.
Chaque serveur peut être le serveur de reprise de l'autre serveur.
Exception logicielle avec redémarrage dans un autre environnement OS.
Upgrade en douceur de l'application et de l'OS possible serveur par serveur (les versions N et N+1 peuvent coexister)
Serveur secondaire dédié à l'exécution de la même application synchronisée au niveau instruction.
Exception logicielle sur les 2 serveurs en même temps.
Upgrade en douceur impossible
SafeKit met en œuvre la réplication de fichiers temps réel au niveau octet et se configure simplement avec les répertoires applicatifs à répliquer même dans le disque système
La réplication de disque au niveau bloc est complexe à configurer et nécessite de mettre les données de l'application dans un disque spécial
Pour éviter 2 serveur maîtres, SafeKit propose un simple "split brain checker" configuré sur un routeur
Pour éviter 2 serveur maîtres, les autres clusters demandent une configuration complexe avec une 3ième machine, un disque de quorum spécial, une interconnexion spéciale
Aucun serveur proxy dédié et aucune configuration réseau particulière ne sont requis dans un cluster SafeKit pour mettre en œuvre des adresses IP virtuelles
Une configuration réseau spéciale est requise dans d'autres clusters pour mettre en œuvre des adresses IP virtuelles. A noter que SafeKit propose un vérificateur d'état adapté aux équilibreurs de charge