Guide de l'administrateur de magasin d'objets cloud NetBackup™
- Introduction
- Gestion des biens du magasin d'objets cloud
- Planification de la protection NetBackup des biens du magasin d'objets cloud
- Conditions préalables à l'ajout de comptes de magasin d'objets cloud
- Configuration de la taille du tampon pour les sauvegardes
- Autorisations requises pour l'utilisateur des fournisseurs cloud Amazon S3
- Autorisations requises pour le stockage d'objets blob Azure
- Autorisations requises pour GCP
- Limitations et remarques
- Ajout de comptes de magasin d'objets cloud
- Gestion des comptes de magasin d'objets cloud
- Analyse antimalware
- Protection des biens du magasin d'objets cloud
- À propos de la prise en charge de l'accélérateur
- Interactions de l'accélérateur NetBackup avec le magasin d'objets cloud
- Remarques sur l'accélérateur et configuration requise
- Nouvelle analyse forcée avec accélérateur du magasin d'objets cloud (attribut de planification)
- Sauvegarde de l'accélérateur et catalogue NetBackup
- Calcul de la taille du journal de suivi de l'accélérateur NetBackup
- À propos de la sauvegarde incrémentielle
- À propos du multiflux dynamique
- À propos des politiques relatives aux biens du magasin d'objets cloud
- Planification de politiques
- Conditions préalables pour les politiques de magasin d'objets cloud
- Création d'une politique de sauvegarde
- Attributs de politique
- Création d'attributs de planification pour les politiques
- Configuration de la fenêtre de démarrage
- Configuration des dates d'exclusion
- Configuration des dates d'inclusion
- Configuration de l'onglet Objets cloud
- Ajout de conditions
- Ajout de conditions d'étiquette
- Exemple de conditions et de conditions d'étiquette
- Gestion des politiques de stockage du magasin d'objets cloud
- À propos de la prise en charge de l'accélérateur
- Récupération des biens du magasin d'objets cloud
- Dépannage
- Accélération réduite pendant la première sauvegarde complète après la mise à niveau vers la version 10.5
- Après la sauvegarde, certains fichiers du dossier shm et de la mémoire partagée ne sont pas nettoyés.
- Après une mise à niveau vers NetBackup 10.5, la copie, l'activation et la désactivation des politiques peuvent échouer pour les politiques plus anciennes
- La sauvegarde échoue avec le nombre de flux par défaut avec l'erreur : Échec du démarrage du processus NetBackup COSP.
- La sauvegarde échoue ou réussit partiellement sur le stockage GCP pour les objets dont le codage de contenu est GZIP.
- La récupération à l'aide de l'option de récupération du compartiment d'origine démarre, mais le travail échoue avec l'erreur 3601
- Le travail de récupération ne démarre pas
- Échec de la restauration : « Erreur bpbrm (PID=3899) restauration client ÉTAT DE SORTIE 40 : connexion réseau interrompue »
- Propriété de niveau d'accès non restaurée après l'écrasement de l'objet existant dans l'emplacement d'origine
- Optimisation réduite de l'accélérateur dans Azure pour la requête OR avec plusieurs étiquettes
- La sauvegarde a échoué et renvoie une erreur de certificat avec des noms de compartiment Amazon S3 contenant des points (.)
- Les travaux de sauvegarde Azure échouent si le nom ou la valeur de la clé d'étiquette contient un espace dans la requête d'étiquette.
- Le compte de magasin d'objets cloud a subi une erreur
- La liste des compartiments est vide lors de la sélection de politique
- La création d'un deuxième compte sur Cloudian échoue si une région existante est sélectionnée
- La restauration a échoué, 2 825 opérations de restauration n'ont pas pu être terminées
- La génération de liste de compartiments du fournisseur cloud échoue lors de l'ajout d'un compartiment dans l'onglet Objets cloud
- La restauration d'image d'importation AIR échoue sur le domaine cible si le compte de stockage cloud n'est pas ajouté au domaine cible
- Échec de la sauvegarde pour Azure Data Lake lorsqu'un serveur de médias de version antérieure est utilisé avec l'hôte de sauvegarde ou le serveur de stockage de version 10.3
- Échec partiel de la sauvegarde dans Azure Data Lake : erreur nbpem (pid=16018) sauvegarde du client
- Échec de la récupération pour Azure Data Lake : opération non autorisée, car le chemin d'accès est trop profond
- Échec de la sauvegarde de répertoires vides dans Azure Data Lake
- Erreur de récupération : emplacement de répertoire alternatif non valide. Spécifiez une chaîne dont la longueur ne dépasse pas 1 025 caractères valides.
- Erreur de récupération : paramètre spécifié non valide
- Échec de la restauration : Impossible d'exécuter l'opération COSP, l'objet suivant sera ignoré : [/testdata/FxtZMidEdTK]
- Échec de la création d'un compte de stockage en cloud avec des informations d'authentification incorrectes
- Échec des découvertes en raison d'autorisations incorrectes
- Echec des restaurations dû au verrouillage d'objets
À propos du multiflux dynamique
La sauvegarde multiflux de la politique de magasin d'objets cloud exécute des flux de sauvegarde simultanés pour une sélection de sauvegarde donnée. La sélection de sauvegarde est divisée en plusieurs flux qui s'exécutent en parallèle, ce qui permet d'accélérer la sauvegarde. Le nombre de flux peut être configuré pour chaque politique dans l'onglet de sélection de sauvegarde de la politique de magasin d'objets cloud. Chaque flux de sauvegarde crée une image de sauvegarde unique. Par la suite, toutes les images créées par les flux pour cette sélection de sauvegarde représentent la sauvegarde de cette sélection spécifique.
Le multiflux dynamique est activé par défaut pour toutes les politiques de magasin d'objets cloud récemment créées.
Vous pouvez spécifier le nombre maximal de flux à utiliser pour un compartiment ou un conteneur dans les attributs de politique.
Se reporter à Attributs de politique.
Des compartiments/conteneurs entiers sont sauvegardés lorsque vous utilisez le multiflux dynamique.
Le nombre de flux que vous spécifiez dans une politique s'applique à chacun des compartiments protégés par la politique. Par exemple, si vous spécifiez 10 flux dans la politique et sélectionnez 5 compartiments pour la sauvegarde, vous obtenez 50 flux simultanés. Certains flux peuvent être placés en file d'attente si le nombre maximal de travaux simultanés autorisés dans l'unité de stockage sélectionnée pour la politique est inférieur au nombre total de flux en cours d'exécution pour les différentes politiques. Pour des performances optimales, conservez une valeur supérieure au nombre total de flux à exécuter pour les différentes politiques pour la propriété du stockage sélectionné.
Vous ne pouvez pas utiliser un serveur évolutif comme hôte de sauvegarde si vous utilisez le multiflux dynamique.
La fonction de nouvelle tentative de travail ne fonctionne pas pour les travaux de sauvegarde.
La reprise au point de contrôle n'est pas prise en charge.
Le multiflux dynamique démarre tous les flux de sauvegarde pour un compartiment ou un conteneur en même temps et enregistre sur une unité de stockage. Par conséquent, l'utilisation d'unités de stockage sur bande comme cible pour les copies de sauvegarde principales n'est pas recommandée. Vous pouvez utiliser un stockage MSDP comme cible pour la première copie de sauvegarde et configurer un stockage sur bande comme cible pour les copies secondaires ou de duplication.