Guide de l'administrateur de magasin d'objets cloud NetBackup™
- Introduction
- Gestion des biens du magasin d'objets cloud
- Planification de la protection NetBackup des biens du magasin d'objets cloud
- Conditions préalables à l'ajout de comptes de magasin d'objets cloud
- Configuration de la taille du tampon pour les sauvegardes
- Autorisations requises pour l'utilisateur des fournisseurs cloud Amazon S3
- Autorisations requises pour le stockage d'objets blob Azure
- Autorisations requises pour GCP
- Limitations et remarques
- Ajout de comptes de magasin d'objets cloud
- Gestion des comptes de magasin d'objets cloud
- Analyse antimalware
- Protection des biens du magasin d'objets cloud
- À propos de la prise en charge de l'accélérateur
- Interactions de l'accélérateur NetBackup avec le magasin d'objets cloud
- Remarques sur l'accélérateur et configuration requise
- Nouvelle analyse forcée avec accélérateur du magasin d'objets cloud (attribut de planification)
- Sauvegarde de l'accélérateur et catalogue NetBackup
- Calcul de la taille du journal de suivi de l'accélérateur NetBackup
- À propos de la sauvegarde incrémentielle
- À propos du multiflux dynamique
- À propos des politiques relatives aux biens du magasin d'objets cloud
- Planification de politiques
- Conditions préalables pour les politiques de magasin d'objets cloud
- Création d'une politique de sauvegarde
- Attributs de politique
- Création d'attributs de planification pour les politiques
- Configuration de la fenêtre de démarrage
- Configuration des dates d'exclusion
- Configuration des dates d'inclusion
- Configuration de l'onglet Objets cloud
- Ajout de conditions
- Ajout de conditions d'étiquette
- Exemple de conditions et de conditions d'étiquette
- Gestion des politiques de stockage du magasin d'objets cloud
- À propos de la prise en charge de l'accélérateur
- Récupération des biens du magasin d'objets cloud
- Dépannage
- Accélération réduite pendant la première sauvegarde complète après la mise à niveau vers la version 10.5
- Après la sauvegarde, certains fichiers du dossier shm et de la mémoire partagée ne sont pas nettoyés.
- Après une mise à niveau vers NetBackup 10.5, la copie, l'activation et la désactivation des politiques peuvent échouer pour les politiques plus anciennes
- La sauvegarde échoue avec le nombre de flux par défaut avec l'erreur : Échec du démarrage du processus NetBackup COSP.
- La sauvegarde échoue ou réussit partiellement sur le stockage GCP pour les objets dont le codage de contenu est GZIP.
- La récupération à l'aide de l'option de récupération du compartiment d'origine démarre, mais le travail échoue avec l'erreur 3601
- Le travail de récupération ne démarre pas
- Échec de la restauration : « Erreur bpbrm (PID=3899) restauration client ÉTAT DE SORTIE 40 : connexion réseau interrompue »
- Propriété de niveau d'accès non restaurée après l'écrasement de l'objet existant dans l'emplacement d'origine
- Optimisation réduite de l'accélérateur dans Azure pour la requête OR avec plusieurs étiquettes
- La sauvegarde a échoué et renvoie une erreur de certificat avec des noms de compartiment Amazon S3 contenant des points (.)
- Les travaux de sauvegarde Azure échouent si le nom ou la valeur de la clé d'étiquette contient un espace dans la requête d'étiquette.
- Le compte de magasin d'objets cloud a subi une erreur
- La liste des compartiments est vide lors de la sélection de politique
- La création d'un deuxième compte sur Cloudian échoue si une région existante est sélectionnée
- La restauration a échoué, 2 825 opérations de restauration n'ont pas pu être terminées
- La génération de liste de compartiments du fournisseur cloud échoue lors de l'ajout d'un compartiment dans l'onglet Objets cloud
- La restauration d'image d'importation AIR échoue sur le domaine cible si le compte de stockage cloud n'est pas ajouté au domaine cible
- Échec de la sauvegarde pour Azure Data Lake lorsqu'un serveur de médias de version antérieure est utilisé avec l'hôte de sauvegarde ou le serveur de stockage de version 10.3
- Échec partiel de la sauvegarde dans Azure Data Lake : erreur nbpem (pid=16018) sauvegarde du client
- Échec de la récupération pour Azure Data Lake : opération non autorisée, car le chemin d'accès est trop profond
- Échec de la sauvegarde de répertoires vides dans Azure Data Lake
- Erreur de récupération : emplacement de répertoire alternatif non valide. Spécifiez une chaîne dont la longueur ne dépasse pas 1 025 caractères valides.
- Erreur de récupération : paramètre spécifié non valide
- Échec de la restauration : Impossible d'exécuter l'opération COSP, l'objet suivant sera ignoré : [/testdata/FxtZMidEdTK]
- Échec de la création d'un compte de stockage en cloud avec des informations d'authentification incorrectes
- Échec des découvertes en raison d'autorisations incorrectes
- Echec des restaurations dû au verrouillage d'objets
Interactions de l'accélérateur NetBackup avec le magasin d'objets cloud
L'accélérateur NetBackup crée le flux de sauvegarde et l'image de sauvegarde comme suit :
Si l'hôte de sauvegarde ou le serveur évolutif ne dispose d'aucun journal de suivi pour la politique, le compartiment et la requête donnés, NetBackup effectue une sauvegarde complète et crée un journal de suivi. Le journal de suivi collecte des informations sur les données des objets / objets blob qui sont enregistrées conformément aux critères de requête, pour les comparer au cours de la prochaine sauvegarde.
Lors de la sauvegarde suivante, NetBackup identifie les données et/ou métadonnées ayant été modifiées depuis la sauvegarde précédente. Pour ce faire, il compare les informations du journal de suivi aux informations du magasin d'objets cloud pour chaque objet / objet blob, selon les critères de requête propre au compartiment.
L'hôte de sauvegarde NetBackup ou le serveur évolutif envoie le flux suivant au serveur de médias : les blocs modifiés des objets / objets blob, ainsi que l'ID et les zones de stockage des données de la sauvegarde précédente (décalage et taille de bloc) des blocs inchangés.
Le serveur de médias reçoit les blocs modifiés des objets / objets blob, ainsi que l'ID de sauvegarde et les zones de stockage des blocs inchangés. À partir des ID de sauvegarde et les descripteurs d'objets / d'objets blob, le serveur de médias localise le reste des données des objets / objets blob dans les sauvegardes existantes.
Le serveur de médias dirige le serveur de stockage pour l'écriture des blocs modifiés et combine ces blocs avec les blocs précédemment inchangés et stockés localement dans une nouvelle image complète.