Guide de déduplication VeritasNetBackup™
- Introduction à NetBackup Media Server Deduplication Option
- Planification de votre déploiement
- À propos des conditions requises en matière de stockage et de connectivité de MSDP
- À propos de la déduplication de serveur de médias NetBackup
- Au sujet de la déduplication directe de client NetBackup
- A propos de la déduplication client de filiale MSDP
- A propos des performances de MSDP
- Pratiques d'excellence de déploiement MSDP
- Provisionnement du stockage
- Licence de déduplication
- Configuration de la fonction de déduplication
- Configuration du comportement de l'agent de déduplication à plusieurs threads
- Configuration du comportement du cache d'empreinte MSDP
- Configuration de l'amorçage du cache d'empreinte MSDP sur le serveur de stockage
- À propos du chiffrement MSDP à l'aide du service KMS
- Configuration d'un serveur de stockage pour un pool de déduplication de serveur de médias
- Configuration d'un pool de disques pour la déduplication
- Configuration d'une unité de stockage d'un pool de déduplication de serveur de médias
- À propos de la duplication optimisée MSDP au sein du même domaine
- Configuration de la duplication optimisée MSDP dans le même domaine NetBackup
- Configuration de la réplication MSDP sur un autre domaine NetBackup
- Affichage de la topologie de réplication pour Auto Image Replication
- Configuration d'une cible pour la réplication de MSDP vers un domaine distant
- Création d'une politique de cycle de vie du stockage
- Propriétés Réseau résilient
- Modification du fichier pd.conf de MSDP
- Au sujet de la protection du catalogue MSDP
- Configuration d'une sauvegarde de catalogue MSDP
- Configuration de la déduplication dans le cloud avec NetBackup CloudCatalyst
- Utilisation de NetBackup CloudCatalyst pour charger des données dédupliquées dans le cloud
- Configuration d'un serveur de stockage CloudCatalyst pour la déduplication dans le cloud
- Surveillance de l'activité de déduplication
- Affichage des détails du travail MSDP
- Gestion de la fonction de déduplication
- Gestion des serveurs MSDP
- Gestion des informations d'authentification du moteur de déduplication NetBackup
- Gestion des pools de déduplication de serveur de médias
- Modification des propriétés d'un pool de déduplication de serveur de médias
- Configuration du comportement de la vérification de l'intégrité des données MSDP
- A propos du changement de base du stockage MSDP
- Gestion des serveurs MSDP
- Récupération MSDP
- Remplacement des hôtes MSDP
- Désinstallation MSDP
- Architecture de déduplication
- Dépannage
- À propos de la consignation unifiée
- À propos de la consignation héritée
- Résolution des problèmes d'installation de MSDP
- Résolution des problèmes de configuration MSDP
- Résolution des problèmes d'exploitation de MSDP
- Dépannage des problèmes rencontrés avec CloudCatalyst
- Journaux CloudCatalyst
- Problèmes rencontrés lors de l'utilisation de l'assistant Configuration de serveur de stockage en cloud
- Problèmes de pool de disques
- Problèmes lors de la configuration d'un serveur de stockage en cloud
- Outils de dépannage CloudCatalyst
- Annexe A. Migration vers le stockage MSDP
À propos du cache CloudCatalyst
L'administrateur configure un répertoire de cache local dans le cadre de la configuration d'un serveur de stockage CloudCatalyst. La fonction principale du répertoire de cache local (ou cache CloudCatalyst) est de permettre à CloudCatalyst de continuer à dédupliquer des données. La déduplication de données se produit même si le taux d'acquisition à partir des travaux de sauvegarde et de duplication ciblés dépasse temporairement le débit de chargement disponible vers le stockage en cloud de destination.
Par exemple, si des travaux de sauvegarde et de duplication transfèrent 10 To de données par heure vers le serveur de stockage CloudCatalyst et si CloudCatalyst déduplique les données selon un rapport de 10:1, les 1 To de données dédupliquées peuvent dépasser la capacité de chargement de 7 To par heure d'écriture sur le stockage en cloud. Le cache permet aux travaux de continuer à envoyer et à traiter les données, en supposant qu'à un moment donné, le taux de données entrantes ralentira. Le cache CloudCatalyst enregistre uniquement les données dédupliquées. Les travaux ne sont pas marqués comme terminés tant que toutes les données ne sont pas chargées dans le cloud.
Bien qu'un cache CloudCatalyst de 4 To soit recommandé, une taille de cache plus importante offre les avantages suivants :
Pour les restaurations :
Si les données sont présentes dans le cache CloudCatalyst, elles sont restaurées à partir du cache au lieu du cloud. Plus la taille du cache est importante, plus le nombre d'objets dédupliqués que ce dernier peut héberger est important.
Pour les données présentant un taux de déduplication faible :
Une taille de cache plus importante peut être nécessaire, car les faibles rapports de déduplication nécessitent de charger des quantités de données plus importantes dans le cloud.
Pour les périodes d'activité intense :
Une taille de cache plus importante peut être utile si vous planifiez des travaux fréquents sur le serveur de stockage CloudCatalyst dans un intervalle de temps réduit.
Un cache plus important présente des avantages, mais les travaux ne sont pas marqués comme terminés tant que toutes les données ne sont pas chargées dans le cloud. Les données sont chargées du cache vers le cloud quand un fichier de conteneur MSDP est plein. Cela ne se produit pas immédiatement, mais peu de temps après le début du travail de sauvegarde ou de duplication. La déduplication permet au second travail de sauvegarde et aux travaux de sauvegarde ultérieurs de transférer beaucoup moins de données dans le cloud, selon le taux de déduplication.
Par exemple, un cache de 4 To peut normalement gérer sans problème 1 Po de données dans le cloud.
Remarque :
Si vous lancez une restauration à partir de Glacier ou Glacier Deep Archive, NetBackup lance une étape de réchauffement. NetBackup ne poursuit pas la restauration avant que toutes les données ne soient disponibles dans le stockage S3 à lire.
L'étape de réchauffement s'effectue toujours si vous utilisez Amazon, même si les données sont dans le cache CloudCatalyst. Pour les classes de stockage autres que Glacier et Glacier Deep Archive, l'étape de réchauffement est presque immédiate, sans retard significatif. Pour Glacier et Glacier Deep Archive, l'étape de réchauffement peut être immédiate si les fichiers ont été préalablement réchauffés et sont toujours dans le stockage Standard S3. Cependant, cette étape peut prendre plusieurs minutes, heures ou jours selon les paramètres configurés.
CloudCatalyst gère le cache en fonction des paramètres de configuration définis dans le fichier esfs.json. Une fois que la borne haute est atteinte, les données sont purgées lorsque l'espace utilisé atteint la moyenne des valeurs HighWatermark
et LowWatermark
(haute + basse)/2
et continue jusqu'à atteindre la valeur LowWatermark
. Si le débit de données entrantes dépasse le débit auquel la borne peut être maintenue, les travaux commencent à échouer. Les administrateurs ne doivent pas supprimer ou purger manuellement les données gérées dans le stockage du cache, sauf s'ils sont invités à le faire par le support technique NetBackup.