Veritas InfoScale™ 7.4 仮想化ガイド- Linux
- 第 I 部 Linux 仮想化で使う Veritas InfoScale Solutions の概要
- 第 II 部 基本 KVM 環境の実装
- 基本 KVM のスタートガイド
- KVM (カーネルベースの仮想マシン)ホストの作成および起動
- RHEL ベースの KVM のインストールと使用法
- KVM ゲストの設定
- Veritas InfoScale Solutions での KVM の設定について
- カーネルベースの仮想マシン環境の Veritas InfoScale Solutions 設定オプション
- KVM ゲスト仮想化マシンの Dynamic Multi-Pathing
- KVM ホストでの Dynamic Multi-Pathing
- 仮想化ゲストマシンでの Storage Foundation
- KVM ゲストでの I/O フェンシングの有効化
- KVM ホストでの Storage Foundation Cluster File System High Availability
- KVM ホストとゲスト仮想マシンの Dynamic Multi-Pathing
- KVM ホストの Dynamic Multi-Pathing と KVM ゲスト仮想マシンの Storage Foundation HA
- KVM ホストでの Cluster Server
- ゲストでの Cluster Server
- 複数の仮想マシンゲストと物理コンピュータにわたるクラスタ内の Cluster Server
- カーネルベースの仮想マシン環境での Veritas InfoScale Solutions のインストール
- KVM(カーネルベースの仮想マシン)環境の Cluster Server のインストールと設定
- KVM リソースの設定
- 基本 KVM のスタートガイド
- 第 III 部 RedHat Enterprise Virtualization 環境の実装
- RHEV(Red Hat Enterprise Virtualization)のスタートガイド
- RHEV ホストの作成と起動
- RHEV(Red Hat Enterprise Virtualization)環境での仮想マシンの設定
- RHEV 環境のための Veritas InfoScale Solutions 設定オプション
- RHEV ゲスト仮想化マシンの Dynamic Multi-Pathing
- RHEV ホストでの Dynamic Multi-Pathing
- RHEV ゲスト仮想マシンでの Storage Foundation
- RHEV ホストでの Storage Foundation Cluster File System High Availability
- RHEV ホストとゲスト仮想マシンの Dynamic Multi-Pathing
- RHEV ホストの Dynamic Multi-Pathing と RHEV ゲスト仮想マシンの Storage Foundation HA
- RHEV 環境の Cluster Server
- Veritas InfoScale Solutions での RHEV の設定について
- RHEV 環境での Veritas InfoScale Solutions のインストール
- 仮想マシンを管理する VCS の設定
- 仮想マシンのバックエンドストレージとしての Storage Foundation の設定
- RHEV 環境内のバックエンドストレージとして Storage Foundation を接続するための仮想マシンの設定について
- Storage Foundation ストレージを使用する仮想マシンの使用事例
- RHEV 環境での仮想マシンに対するストレージを設定するワークフロー
- RHEV 環境の前提条件
- RHEV のための SF 管理ユーティリティのインストール
- RHEL-H ノードへの SFCFSHA または SFHA クラスタのインストールと設定
- 仮想マシンのバックエンドストレージとしての Storage Foundation の設定
- RHEV 管理ユーティリティからの使用例
- DMP メタデバイスのマッピング
- デバイスのサイズ変更
- RHEV(Red Hat Enterprise Virtualization)のスタートガイド
- 第 IV 部 Linux 仮想化実装の使用例
- アプリケーションの可視性とデバイス検出
- サーバー統合整理
- 物理から仮想への移行
- 簡素化した管理
- Cluster Server を使用するアプリケーションの可用性
- 仮想マシンの可用性
- ライブ移行を使った仮想マシンの可用性
- Red Hat Enterprise Virtualization 環境での仮想から仮想へのクラスタ化
- Microsoft Hyper-V 環境での仮想から仮想へのクラスタ化
- OVM(Oracle Virtual Machine)環境での仮想から仮想へのクラスタ化
- Red Hat Enterprise 仮想化環境での仮想化マシンに対するディザスタリカバリ
- Red Hat Enterprise Virtualization 仮想マシンに対するディザスタリカバリについて
- RHEV 環境での DR の要件
- Volume Replicator(VVR)と Veritas File Replicator(VFR)を使用するボリュームとファイルシステムの障害回復
- Storage Foundation コンポーネントをバックエンドストレージとして設定する
- DR サイト間のレプリケーションのために VCS GCO オプションで VVR および VFR を設定します
- Cluster Server(VCS)を使った RHEV(Red Hat Enterprise Virtualization)仮想マシンでのディザスタリカバリの設定
- 多層型ビジネスサービスのサポート
- Docker コンテナと InfoScale Enterprise の管理
- InfoScale Enterprise 製品による Docker コンテナの管理について
- Docker、Docker Daemon、および Docker Container 用の Cluster Server エージェントについて
- Docker コンテナのストレージ容量の管理
- Docker コンテナのオフライン移行
- Docker 環境におけるボリュームとファイルシステムのディザスタリカバリ
- Docker コンテナの管理時の制限事項
- 第 V 部 参照
- 付録 A. トラブルシューティング
- 仮想マシンのライブ移行のトラブルシューティング
- Red Hat Enterprise Virtualization(RHEV)環境でのライブ移行のストレージ接続
- Red Hat Enterprise Virtualization(RHEV)仮想マシンのディザスタリカバリ(DR)のトラブルシューティング
- KVMGuest リソースが、ホストへのストレージ接続が失われてもオンライン状態のままになる
- 仮想マシンが実行されているホストのネットワーク接続が失われると、VCS が仮想マシンのフェールオーバーを開始する
- RHEV 環境で、間違ったブート順序により仮想マシンの起動に失敗する
- RHEV 環境で、仮想マシンが wait_for_launch 状態でハングアップして起動に失敗する
- DROpts 属性が設定されていない場合、VCS が別の RHEV クラスタのホストの仮想マシンの起動に失敗する
- 仮想マシンが RHEV 環境で接続されているネットワークカードの検出に失敗する
- hares -modify コマンドの -add オプションまたは -delete オプションを使って RHEVMInfo 属性のいずれかのキーを更新すると、KVMGuest エージェントの動作が未定義になる
- RHEV 環境: VM が動作しているノードがパニックに陥るか強制的にシャットダウンされる場合、VCS は別のノードで VM を開始できない
- 付録 B. 設定例
- 付録 C. 詳しい情報の入手先
- 付録 A. トラブルシューティング
VirtIO ディスクドライブ
VirtIO は、KVM(カーネルベースの仮想マシン(VM))技術の準仮想化ハイパーバイザの抽象化レイヤーです。完全な仮想化とは異なり、VirtIO は各 VM ゲストで実行している特殊な準仮想化ドライバを必要とします。VirtIO は、ネットワークデバイスとブロック(ディスク)のデバイスを含む多くのデバイスにサポートを提供します。VirtIO を使ってブロックデバイスをホストにエクスポートすると、ホストに存在するファイル、VxVM ボリューム、DMP メタノード、SCSI デバイス、その他のタイプのブロックデバイスを VM ゲストに提示できます。VirtIO を使って SCSI デバイスを VM ゲストに提示すると、単純な読み込みと書き込みに加えて SCSI inquiry コマンドのような SCSI コマンドを実行できるのでゲストの VxVM でディープデバイス検出を実行できます。ホストと VM ゲストで VxVM と DMP を実行すると、アレイからホストそして VM ゲストまで SCSI デバイスの一貫した命名が可能になります。
Veritas InfoScale Solutions 7.4 は VirtIO SCSI デバイスと Linux KVM を実装した VirtIO ブロックデバイスをサポートします。virtio SCSI は新しい仮想 SCSI HBA インターフェースです。これは Red Hat Enterprise Linux(RHEL)の virtio blk の拡張性を改善し、標準 SCSI コマンドセットサポートを提供する仮想マシンのための代替ストレージ実装の基礎となります。
VirtIO の機能:
動的にデバイスを追加する。
VirtIO ディスクデバイスは、再ブートを必要とせずに、実行中の VM ゲストに対して動的に追加したり削除したりすることが可能です。
VirtIO の制限:
ディスクキャッシュ:
キャッシュを有効にした VM ゲストにディスクをエクスポートすると、VxVM 設定変更は KVM ホストでキャッシュに保存され、ディスクには適用されないことがあります。ディスクが複数の VM ゲスト間で共有されている場合、この設定変更は、変更を行った VM ゲストシステム以外の他の VM ゲストシステムでは認識されません。設定に関する潜在的な競合を回避するため、ディスクのエクスポートを実行する間はホストのキャッシュ保存を無効に設定(cache=no)してください。
SCSI コマンド:
VirtIO デバイスとして VM ゲストに提示された SCSI デバイスは、SCSI コマンドセットの限定サブセットをサポートします。KVM ハイパーバイザは制限されたコマンドをブロックします。
PGR SCSI-3 予約:
PGR SCSI-3 予約は VirtIO ブロックデバイスでサポートされません。KVM ゲストオペレーティングシステムの内部で SCSI-3 PR を使って操作する場合は、virtio-scsi を使ってゲストに SCSI デバイスをエクスポートすることを推奨します。この制限事項は RHEL 6.4 以前のリリースにも適用されます。
SCSI デバイスでの DMP 高速リカバリ:
DMP 高速リカバリは通常の VirtIO 読み書き機構をバイパスし、デバイスに対して SCSI コマンドを直接実行します。DMP 高速リカバリが VM ゲスト内で使われる場合は、データ整合性の問題を避けるためにホストでのキャッシュ処理を無効にする必要があります(cache=none)。
シン再生:
シン再生は VirtIO デバイスでサポートされません。「WRITE-SAME」コマンドはハイパーバイザによってブロックされます。この制限は Linux の今後のリリースで解除される可能性があります。
デバイスのサイズ変更:
Linux は VirtIO デバイスのオンラインでのディスクサイズ変更をサポートしません。VirtIO デバイスのサイズ変更を行うには、VM ゲストを完全にシャットダウンして再起動する必要があります。ブロックデバイスのオンラインでのサイズ変更は、Linux の評価版でサポートされます。
デバイスの最大数:
現在 virtIO blk では、1 ゲストあたり 32 台のデバイスに制限されています。このデバイス制限には、ネットワークインターフェースやブロックデバイスなど、すべての VirtIO デバイスが含まれます。デバイス制限は、各デバイスが個別の PCI デバイスとして機能する現在の VirtIO 実装の結果です。virtio SCSI は、単一のコントローラで多数のストレージデバイスを多重化することによってこの制限事項を解消します。virtio SCSI コントローラの各デバイスは論理ユニットまたは LUN として表されます。LUN はターゲットごとにグループ化されます。ターゲットごとのデバイスの上限が広がります。各デバイスはコントローラあたり最大 256 個のターゲット、ターゲットあたり 16,384 個の論理ユニットを持つことができます。virtio blk の代わりに virtio SCSI を使用して、KVM ゲスト内部で 32(28)個より多くのディスクデバイスを使用することができます。
VxFS:
I/O の負荷が高い状況下での KVM 環境では、VirtIO ブロックデバイスとして接続された LUN で作成された VxFS ファイルシステムでデータの破損が発生することがあります。詳しくは、Red Hat Support Case #00945974 を参照してください。