NetBackup IT Analytics システム管理者ガイド
- はじめに
- 更新の準備
- データのバックアップとリストア
- NetBackup IT Analytics の監視
- REST API を使用した NetBackup IT Analytics レポートへのアクセス
- NetBackup の推定テープ容量の定義
- ホストグループ管理の自動化
- ホストグループ管理の自動化に関する情報
- タスクの概要: ホストグループの一括管理
- PL/SQL ユーティリティを使用するための準備
- 一般的なユーティリティ
- ホストオペレーティングシステムのプラットフォームとバージョン別のカテゴリ化
- ホストグループ ID の識別
- クライアントの移動またはコピー
- 属性別のクライアントの編成
- ホストグループの移動
- ホストグループの削除
- ホストの移動とホストグループの削除
- クライアントのバックアップサーバー別グループへの編成
- 重複したバックアップクライアントのマージ
- 重複したホストの結合
- 一括ロードユーティリティ
- Veritas NetBackup ユーティリティ
- NetBackup ユーティリティの自動化
- クライアントの管理サーバー別グループへの編成
- 非アクティブなクライアントグループの設定
- 非アクティブなポリシーでのクライアント用のホストグループの設定
- ポリシー別のクライアントの設定
- ポリシーの種類別のクライアントの設定
- IBM Tivoli Storage Manager ユーティリティ
- ポリシードメイン別のクライアントの設定
- IBM Tivoli Storage Manager インスタンス別のクライアントの設定
- ユーティリティを自動的に実行するためのスケジュール設定
- 単一ドメインのマルチカスタマー環境でのホスト照合の識別
- 属性管理
- 汎用バックアップデータのインポート
- バックアップジョブの上書き
- ホストデータ収集の管理
- ポータルのシステム構成
- パフォーマンスプロファイルスケジュールのカスタマイズ
- ポータルアクセス用の LDAP および SSO 認証
- Oracle Database のユーザーパスワードの変更
- CyberArk との統合
- NetBackup IT Analytics のチューニング
- ログファイルの操作
- NetBackup IT Analytics のデバッグについて
- デバッグの有効化
- データベースのログ記録
- ポータルとデータコレクタのログファイル: ログ記録の削減
- データベース SCON ログ: ログの削減
- データベース SCON ログの更新
- audit.log へのユーザー活動のログ記録
- ユーザーの削除対象のみのログ記録
- すべてのユーザー活動のログ記録
- データコレクタのログファイル
- データコレクタのログファイルの編成
- Data Collector のログファイルの命名規則
- 一般的なデータコレクタのログファイル
- イベントまたはメタコレクタ ID の検索
- ポータルのログファイル
- データベースログファイル
- インストールまたはアップグレードログファイル
- レポートメトリックの定義
- SNMP トラップアラート
- SSL 証明書の構成
- SSL 証明書の構成
- SSL 実装の概要
- SSL 証明書の取得
- SSL を有効にするための Web サーバー構成の更新
- ポータルまたはデータ収集 SSL のための仮想ホストの構成
- Data Collector の SSL の有効化または無効化
- 電子メールで送信されたレポートの SSL の有効化または無効化
- SSL 構成のテストとトラブルシューティング
- 自己署名 SSL 証明書の作成
- 証明書を信頼するためのデータコレクタの構成
- Data Collector サーバー上のキーストアファイルの場所
- 証明書の Data Collector Java キーストアへのインポート
- ポータルサーバーのキーストア
- Linux サーバーへの仮想インターフェースの追加
- Windows での仮想またはセカンダリ IP アドレスの追加
- ポータルプロパティ: 形式とポータルのカスタマイズ
- SDK データベースオブジェクトのデータ保持期間
- SDK データベースオブジェクトのデータ保持期間
- データの集計
- ドメイン ID とデータベーステーブル名の検索
- SDK ユーザー定義オブジェクトの保持期間の更新の例
- SDK ユーザー定義データベースオブジェクト
- 容量: 基本データベーステーブルのデフォルトの保持期間
- 容量: EMC Symmetrix 拡張パフォーマンスのデフォルトの保持期間
- 容量: EMC XtremIO のデフォルトの保持期間
- 容量: Dell EMC ECS (エラスティッククラウドストレージ) のデフォルトの保持期間
- 容量: Windows ファイルサーバーのデフォルトの保持期間
- 容量: Pure Storage FlashArray のデフォルトの保持期間
- クラウド: AWS (アマゾンウェブサービス) のデフォルトの保持期間
- クラウド: Microsoft Azure のデフォルトの保持期間
- クラウド: OpenStack Ceilometer のデフォルトの保持期間
- マルチテナントデータのパージ保持期間の構成
- トラブルシューティング
- 付録 A. Oracle での Kerberos ベースのプロキシユーザーの認証
- 付録 B. NetBackup IT Analytics ポータルとデータレシーバでの TLS 対応 Oracle データベースの構成
- TLS (トランスポート層セキュリティ) の概要
- Oracle 環境での TLS
- 分割アーキテクチャの Linux における NetBackup IT Analytics を使用した Oracle での TLS の構成
- 非分割アーキテクチャの Linux における NetBackup IT Analytics を使用した Oracle での TLS の構成
- 分割アーキテクチャの Windows における NetBackup IT Analytics を使用した Oracle での TLS の構成
- 非分割アーキテクチャの Windows における NetBackup IT Analytics を使用した Oracle での TLS の構成
- ユーザー環境での TLS の構成
- 付録 C. Kubernetes およびアプライアンス上の NetBackup 向けの NetBackup IT Analytics
重複したホストの結合
重複したホストを結合するには、[重複したホストの分析 (Duplicate Host Analysis)]レポートのローカルの CSV コピーが必要です。このレポートは、重複したホストの結合スクリプトへの入力として使用します。
重複したホストを結合する前に、次の推奨事項に従ってください。
[重複したホストの分析 (Duplicate Host Analysis)]レポートは、エクスポートされた CSV のコピーをホストの結合スクリプトの入力として使用するために、スコープを慎重に設定して生成します。
エクスポートされた元の CSV のコピーを、重複したホストの結合スクリプトの入力として使用します。元の CSV は、将来、参照として使用できます。
ホストの結合プロセスは取り消すことができないため、バックアップソリューションに関する包括的な知識を持つ管理者が行う必要があります。
このプロセスは取り消すことができないため、ホストの結合を実行する前にデータベースをバックアップします。
重複したホストの結合は高度なプロセスであるため、上記のすべての推奨事項に従っていることを確認してください。
重複したホストの結合は次に示す順序で実行します。
NetBackup IT Analytics で[重複したホストの分析 (Duplicate Host Analysis)]レポートを CSV 形式で生成します。
ホストの結合スクリプト用に[重複したホストの分析 (Duplicate Host Analysis)]レポートの CSV コピーを編集します。
CSV 入力を使用してホストの結合スクリプトを実行します。
- [レポート (Reports)]タブの[システム管理 (System Administration)]レポートから[重複したホストの分析 (Duplicate Host Analysis)]レポートにアクセスします。
- [重複したホストの分析 (Duplicate Host Analysis)]レポート名をクリックします。以下の表の説明を使用して、必要なレポートスコープを設定してレポートを生成します。
フィールド名
説明
ホストグループ (Host Group)
レポートスコープのホストグループ、バックアップサーバー、またはホストを選択できます。項目を選択し、特定のホストグループまたはホスト名をターゲットにすることで、範囲が絞り込まれ、重複を効率的に見つけやすくなります。
重複の検索方法: (Find Duplicates Using:)
ホスト名 (Host Name)
表示名 (Display Name)
[ホスト名 (Host Name)] (デフォルト) または[表示名 (Display Name)]を選択できます。どちらの検索でも大文字と小文字が区別されます。
[ホスト名 (Host Name)]の場合、内部ホスト名を比較して重複が検出されます。これは、レガシーホストの結合オプションのデフォルトの基準です。
[表示名 (Display Name)]の場合、ホストの表示名または外部名を使用して重複が検索されます。
重複したホストのホストの種類 (Host Type for the Duplicate Host)
クライアントのみ (Clients Only)
すべて (All)
[クライアントのみ (Clients Only)]を選択すると、クライアントとして識別されているホスト (任意のバックアップシステムによってバックアップされたホスト) についてのみ重複を検索することができます。
[すべて (All)]を選択すると、すべての種類のホストについて重複が検出されます。
存続させるホストの選択基準 (Surviving host Selection Criteria)
最もジョブ数が多い (Highest Job Count)
最近更新された (Most Recently Updated)
ホストの結合を実行するときに、重複するホストのうち、存続させるホストを選択する基準を指定できます。
最もジョブ数が多い (Highest Job Count): 関連付けられているジョブが最も多いホストを存続させるホストとして選択します。これは、レガシーホストの結合オプションのデフォルトの基準です。ジョブ数が多いほど、ホストにより多くのデータが関連付けられていることを示しています。
最近更新された (Most Recently Updated): 最近更新されたホストを存続させるホストとして選択します。このオプションは、検索された重複したホストが新しいデータを頻繁に収集しなくなっている場合に使用します。これは、最新のホストを保持するのに役立ちます。
サブグループにカスケード (Cascade into sub-groups)
スコープセレクタのデフォルトでは、レポートの生成時にすべての子サブグループにカスケードされます。選択したホストグループについてのみレポートを生成する場合は、[サブグループにカスケード (Cascade into sub-groups)]のチェックマークをはずします。
共通の属性でフィルタ処理 (Filter by Common Attributes)
このチェックボックスにチェックマークを付けると、「AND」ロジックを使用してレポートの範囲に属性が表示されます。この機能を選択すると、選択した条件の共通集合の結果がレポートに表示されます。
このチェックボックスにチェックマークが付いていない場合、レポートは「OR」ロジックを使用して属性を表示します。たとえば、属性値 Campbell、Engineering、Cost Center 1 を選択し、[共通の属性でフィルタ処理 (Filter by Common Attributes)]を選択すると、レポートには 3 つの属性値をすべて含む結果のみが表示されます。[共通の属性でフィルタ処理 (Filter by Common Attributes)]を選択しない場合、レポートには、Campbell、Engineering、Cost Center 1 のいずれかの属性を含むすべての結果が表示されます。
バップアップサーバーに属性を適用 (Apply Attributes to Backup Servers)
ホストではなくバックアップサーバーにのみ属性を適用するには、このチェックボックスにチェックマークを付けます。
- レポートを生成した後、CSV 形式でシステムにレポートをエクスポートします。
- 次の手順で説明するように、CSV レポートのコピーを作成し、ホストの結合スクリプトのコピーを準備します。
[重複したホストの分析 (Duplicate Host Analysis)]レポートには、重複が疑われるペアごとに 1 つの行が表示されます。複数の重複したホストが検出された場合、レポートには重複したペアごとに 1 つの行が表示されます。たとえば、ホスト A に 3 つの重複している可能性があるホストがある場合、レポートには 3 つの行 (重複ごとに 1 つの行) が表示されます。
CSV コピーで、次の列の値を以下に示すように更新します。
[存続しているホスト (Surviving Host)]: レポートのこの列のデフォルト値は[メイン (Main)]で、重複がメインホストに結合されることを示します。存続するホストを変更するには、値を[複製 (Duplicate)]に変更します。これにより、すべてのホストが重複したホストに結合されます。この列に指定できる値は、[メイン (Main)]と[複製 (Duplicate)]のみです。
[重複したホストの結合のサポート (Is Duplicate Host's Merge supported)]: この列がサポートする値は、[はい (Yes)]と[いいえ (No)]のみです。ホストの結合プロセスの入力として使用する予定のレポート CSV から、値[いいえ (No)] を含むすべての行を削除します。
ホストの結合プロセスに使用する予定のレポート CSV に対して、上記以外に必要な変更はありません。これで、レポート CSV をホストの結合スクリプトの入力として機能する準備ができました。
ホストの結合スクリプトには、続行する前に CSV 内のエラーを評価し、修正を提案する事前評価を実行するプロビジョニングがあります。ホストの結合に進む前に、事前評価で問題がないことを確認する必要があります。レポート CSV でエラーが発生すると、スクリプトはプロセスを中止します。スクリプトを実行するときは、ファイル名、ログファイルのパス、ログファイル名とともにレポートの CSV パスを指定する必要があります。
注意:
ホストの結合プロセスは取り消せないので、続行する前にデータベースをバックアップし、上記のすべての推奨事項に従う必要があります。
重複したホストを結合するには:
../database/toolsディレクトリから host_merge.sql スクリプトを実行します。SQL*PlusまたはSQL Developerから、すべてのスキーマテーブルにアクセスできる portal または同等のユーザーとしてスクリプトを実行できます。- スクリプトで要求されたら、次の詳細を入力します。
1 または 2 を入力してください (Enter 1 or 2): 最初にスクリプトを実行するときは、「1」と入力して事前評価を実行します。事前評価で問題がなければ、2 を入力できます。
重複したホストの分析の CSV ファイル名を絶対パスで入力してください (Enter Duplicate Host Analysis CSV file name with full path): ファイル名を含むレポート CSV ファイルパスを入力します。
ログファイルのパスを入力してください (Enter log file path): ログファイルの場所 (ファイル名なし) を入力します。
ログファイル名を入力してください (Enter log file name): ログファイルの名前を入力します。
事前評価で問題がなければ、オプション 2 を指定してこのステップを繰り返し、ホストの結合を完了します。