Veritas InfoScale™ 8.0.2 仮想化ガイド - Linux
- 第 I 部 Linux 仮想化で使う Veritas InfoScale Solutions の概要
- 第 II 部 基本 KVM 環境の実装
- 基本 KVM のスタートガイド
- KVM (カーネルベースの仮想マシン)ホストの作成および起動
- RHEL ベースの KVM のインストールと使用法
- KVM (カーネルベースの仮想マシン) ゲストの設定
- Veritas InfoScale Solutions での KVM の設定について
- カーネルベースの仮想マシン環境の Veritas InfoScale Solutions 設定オプション
- KVM ゲスト仮想化マシンの Dynamic Multi-Pathing
- KVM ホストでの Dynamic Multi-Pathing
- 仮想化ゲストマシンでの Storage Foundation
- KVM ゲストでの I/O フェンシングの有効化
- KVM ホストでの Storage Foundation Cluster File System High Availability
- KVM ホストとゲスト仮想マシンの Dynamic Multi-Pathing
- KVM ホストの Dynamic Multi-Pathing と KVM ゲスト仮想マシンの Storage Foundation HA
- KVM ホストでの Cluster Server
- ゲストでの Cluster Server
- 複数の仮想マシンゲストと物理コンピュータにわたるクラスタ内の Cluster Server
- カーネルベースの仮想マシン環境での Veritas InfoScale Solutions のインストール
- KVM(カーネルベースの仮想マシン)環境の Cluster Server のインストールと設定
- KVM リソースの設定
- 基本 KVM のスタートガイド
- 第 III 部 Linux 仮想化実装の使用例
- アプリケーションの可視性とデバイス検出
- Veritas InfoScale Operations Manager を使ったストレージからアプリケーションへの可視性の使用について
- Veritas InfoScale Operations Manager でのカーネルベースの仮想マシン(KVM)の仮想化検出
- Veritas InfoScale Operations Manager の Red Hat Enterprise Virtualization(RHEV)仮想化の検出について
- Microsoft Hyper-V 仮想化の検出について
- Microsoft Hyper-V での仮想マシンの検出
- Microsoft Hyper-V でのストレージマッピングの検出
- サーバー統合
- 物理から仮想への移行
- 簡素化した管理
- Cluster Server を使用するアプリケーションの可用性
- 仮想マシンの可用性
- ライブ移行を使った仮想マシンの可用性
- Red Hat Enterprise Virtualization 環境での仮想から仮想へのクラスタ化
- Microsoft Hyper-V 環境での仮想から仮想へのクラスタ化
- OVM (Oracle Virtual Machine) 環境での仮想から仮想へのクラスタ化
- Red Hat Enterprise 仮想化環境での仮想化マシンに対するディザスタリカバリ
- Red Hat Enterprise Virtualization 仮想マシンに対するディザスタリカバリについて
- RHEV 環境での DR の要件
- Volume Replicator(VVR)と Veritas File Replicator(VFR)を使用するボリュームとファイルシステムの障害回復
- Storage Foundation コンポーネントをバックエンドストレージとして設定する
- DR サイト間のレプリケーションのために VCS GCO オプションで VVR および VFR を設定します
- Cluster Server(VCS)を使った RHEV(Red Hat Enterprise Virtualization)仮想マシンでのディザスタリカバリの設定
- 多層型ビジネスサービスのサポート
- InfoScale Enterprise を使用した Docker コンテナの管理
- InfoScale Enterprise 製品による Docker コンテナの管理について
- Docker、Docker Daemon、および Docker Container 用の Cluster Server エージェントについて
- Docker コンテナのストレージ容量の管理
- Docker コンテナのオフライン移行
- Docker 環境におけるボリュームとファイルシステムのディザスタリカバリ
- Docker コンテナの管理時の制限事項
- アプリケーションの可視性とデバイス検出
- 第 IV 部 参照先
- 付録 A. トラブルシューティング
- 仮想マシンのライブ移行のトラブルシューティング
- Red Hat Enterprise Virtualization(RHEV)環境でのライブ移行のストレージ接続
- Red Hat Enterprise Virtualization(RHEV)仮想マシンのディザスタリカバリ(DR)のトラブルシューティング
- KVMGuest リソースが、ホストへのストレージ接続が失われてもオンライン状態のままになる
- 仮想マシンが実行されているホストのネットワーク接続が失われると、VCS が仮想マシンのフェールオーバーを開始する
- RHEV 環境で、間違ったブート順序により仮想マシンの起動に失敗する
- RHEV 環境で、仮想マシンが wait_for_launch 状態でハングアップして起動に失敗する
- DROpts 属性が設定されていない場合、VCS が別の RHEV クラスタのホストの仮想マシンの起動に失敗する
- 仮想マシンが RHEV 環境で接続されているネットワークカードの検出に失敗する
- hares -modify コマンドの -add オプションまたは -delete オプションを使って RHEVMInfo 属性のいずれかのキーを更新すると、KVMGuest エージェントの動作が未定義になる
- RHEV 環境: VM が動作しているノードがパニックに陥るか強制的にシャットダウンされる場合、VCS は別のノードで VM を開始できない
- 付録 B. 設定例
- 付録 C. 他の情報参照場所
- 付録 A. トラブルシューティング
Flexible Storage Sharing の使用例
次に、FSS 機能のいくつかの使用例を示します。
現在の使用例でのローカルストレージの使用 | FSS 機能は、Storage Foundation and High Availability Solutions(Storage Foundation and High Availability Solutions)スタックの現在の使用例をすべてサポートします。SAN ベースのストレージは必要ありません。 |
オフホスト処理 | データの移行:
バックアップ/スナップショット: 追加ノードのバックアップを作成するには、クラスタに参加し、バックアップを作成するホストではなくクラスタの 1 つ以上のノードに接続しているが DAS/共有ストレージでホストされるボリュームやスナップショットから読み込みます。 |
既存の Storage Foundation and High Availability Solutions 機能で利用できる DAS SSD のメリット |
|
ファイルシステムのキャッシュ保存に SmartIO を使う FSS | クラスタのノードに内部 SSD も HDD もある場合は、HDD は FSS を使ってネットワークで共有できます。 SSD を使ってリード/ライトバックキャッシュを設定するには、SmartIO を使います。 読み込みキャッシュでは、ネットワーク共有 HDD を使って作成したボリュームを扱うことができます。 |
リモートのキャッシュ保存に SmartIO を使う FSS | FSS は、ローカル SSD デバイスを備えていないノードにキャッシュサービスを提供するために SmartIO と連携して働きます。 このシナリオでは、FSS(Flexible Storage Sharing)によって、ローカル SSD があるノードから SSD がエクスポートされます。 FSS で、エクスポートされた SSD のプールがクラスタ内に作成されます。 この共用プールから、クラスタの各ノードのキャッシュ領域を作成します。 各キャッシュ領域には、作成される特定のノードからのみアクセス可能です。キャッシュ領域のタイプには VxVM または VxFS があります。 クラスタは CVM クラスタである必要があります。 リモート SSD のキャッシュ領域のボリュームレイアウトは、ホスト全体をミラー化するデフォルトの FSS 割り当てポリシーではなく単純なストライプレイアウトに従います。 キャッシュに保存する操作により特定ボリュームのパフォーマンスが低下する場合は、そのボリュームのキャッシュを無効にします。 キャッシュ領域の作成に使うボリュームは、ディスクグループバージョン 200 以降のディスクグループで作成する必要があります。 ただし、ディスクグループバージョン 190 以降のディスクグループで作成したデータボリュームは、FSS によってエクスポートされたデバイスで作成したキャッシュ領域にアクセスできます。 メモ: CFS ライトバックキャッシュは、リモートの SSD に作成されたキャッシュ領域ではサポートされません。 詳しくは、『Veritas InfoScale SmartIO for Solid State Drives ソリューションガイド』を参照してください。 |
キャンパスクラスタ設定 | キャンパスクラスタは、サイト間のファイバーチャネル(FC)SAN 接続が確立されていなくても設定できます。 |
クラウド環境での FSS | FSS (Flexible Shared Storage) 技術を使用して、クラウド環境の「シェアードナッシング」ストレージの制限に対処できます。FSS では、ネットワーク上でクラウドブロックストレージを共有して、シェアードナッシングクラスタを作成できます。 詳しくは、『Veritas InfoScale Solutions in Cloud Environments』のマニュアルを参照してください。 |
???を参照してください。