Veritas InfoScale™ 8.0.2 仮想化ガイド - Linux
- 第 I 部 Linux 仮想化で使う Veritas InfoScale Solutions の概要
- 第 II 部 基本 KVM 環境の実装
- 基本 KVM のスタートガイド
- KVM (カーネルベースの仮想マシン)ホストの作成および起動
- RHEL ベースの KVM のインストールと使用法
- KVM (カーネルベースの仮想マシン) ゲストの設定
- Veritas InfoScale Solutions での KVM の設定について
- カーネルベースの仮想マシン環境の Veritas InfoScale Solutions 設定オプション
- KVM ゲスト仮想化マシンの Dynamic Multi-Pathing
- KVM ホストでの Dynamic Multi-Pathing
- 仮想化ゲストマシンでの Storage Foundation
- KVM ゲストでの I/O フェンシングの有効化
- KVM ホストでの Storage Foundation Cluster File System High Availability
- KVM ホストとゲスト仮想マシンの Dynamic Multi-Pathing
- KVM ホストの Dynamic Multi-Pathing と KVM ゲスト仮想マシンの Storage Foundation HA
- KVM ホストでの Cluster Server
- ゲストでの Cluster Server
- 複数の仮想マシンゲストと物理コンピュータにわたるクラスタ内の Cluster Server
- カーネルベースの仮想マシン環境での Veritas InfoScale Solutions のインストール
- KVM(カーネルベースの仮想マシン)環境の Cluster Server のインストールと設定
- KVM リソースの設定
- 基本 KVM のスタートガイド
- 第 III 部 Linux 仮想化実装の使用例
- アプリケーションの可視性とデバイス検出
- Veritas InfoScale Operations Manager を使ったストレージからアプリケーションへの可視性の使用について
- Veritas InfoScale Operations Manager でのカーネルベースの仮想マシン(KVM)の仮想化検出
- Veritas InfoScale Operations Manager の Red Hat Enterprise Virtualization(RHEV)仮想化の検出について
- Microsoft Hyper-V 仮想化の検出について
- Microsoft Hyper-V での仮想マシンの検出
- Microsoft Hyper-V でのストレージマッピングの検出
- サーバー統合
- 物理から仮想への移行
- 簡素化した管理
- Cluster Server を使用するアプリケーションの可用性
- 仮想マシンの可用性
- ライブ移行を使った仮想マシンの可用性
- Red Hat Enterprise Virtualization 環境での仮想から仮想へのクラスタ化
- Microsoft Hyper-V 環境での仮想から仮想へのクラスタ化
- OVM (Oracle Virtual Machine) 環境での仮想から仮想へのクラスタ化
- Red Hat Enterprise 仮想化環境での仮想化マシンに対するディザスタリカバリ
- Red Hat Enterprise Virtualization 仮想マシンに対するディザスタリカバリについて
- RHEV 環境での DR の要件
- Volume Replicator(VVR)と Veritas File Replicator(VFR)を使用するボリュームとファイルシステムの障害回復
- Storage Foundation コンポーネントをバックエンドストレージとして設定する
- DR サイト間のレプリケーションのために VCS GCO オプションで VVR および VFR を設定します
- Cluster Server(VCS)を使った RHEV(Red Hat Enterprise Virtualization)仮想マシンでのディザスタリカバリの設定
- 多層型ビジネスサービスのサポート
- InfoScale Enterprise を使用した Docker コンテナの管理
- InfoScale Enterprise 製品による Docker コンテナの管理について
- Docker、Docker Daemon、および Docker Container 用の Cluster Server エージェントについて
- Docker コンテナのストレージ容量の管理
- Docker コンテナのオフライン移行
- Docker 環境におけるボリュームとファイルシステムのディザスタリカバリ
- Docker コンテナの管理時の制限事項
- アプリケーションの可視性とデバイス検出
- 第 IV 部 参照先
- 付録 A. トラブルシューティング
- 仮想マシンのライブ移行のトラブルシューティング
- Red Hat Enterprise Virtualization(RHEV)環境でのライブ移行のストレージ接続
- Red Hat Enterprise Virtualization(RHEV)仮想マシンのディザスタリカバリ(DR)のトラブルシューティング
- KVMGuest リソースが、ホストへのストレージ接続が失われてもオンライン状態のままになる
- 仮想マシンが実行されているホストのネットワーク接続が失われると、VCS が仮想マシンのフェールオーバーを開始する
- RHEV 環境で、間違ったブート順序により仮想マシンの起動に失敗する
- RHEV 環境で、仮想マシンが wait_for_launch 状態でハングアップして起動に失敗する
- DROpts 属性が設定されていない場合、VCS が別の RHEV クラスタのホストの仮想マシンの起動に失敗する
- 仮想マシンが RHEV 環境で接続されているネットワークカードの検出に失敗する
- hares -modify コマンドの -add オプションまたは -delete オプションを使って RHEVMInfo 属性のいずれかのキーを更新すると、KVMGuest エージェントの動作が未定義になる
- RHEV 環境: VM が動作しているノードがパニックに陥るか強制的にシャットダウンされる場合、VCS は別のノードで VM を開始できない
- 付録 B. 設定例
- 付録 C. 他の情報参照場所
- 付録 A. トラブルシューティング
物理から仮想への移行(P2V)を実装する方法
物理サーバーから仮想化ゲストにデータを移行すると、LUN は、最初にホストへと物理的に接続された後、ホストからのゲストへと KVM でマップされます。
この使用事例はサーバー統合の場合に非常に類似しており、手順はほとんど同じです。 物理から仮想への移行は、サーバー統合を実現するために使うプロセスです。
この使用例では、KVM ゲストの KVM ホストと Storage Foundation に Storage Foundation HA または Storage Foundation Cluster File System HA が必要です。 セットアップ情報:
カーネルベースの仮想マシン環境での Veritas InfoScale Solutions のインストールを参照してください。
以下の 3 つのオプションがあります。
Veritas InfoScale Solutions 製品を物理サーバーと仮想ホストの両方にインストールしている場合は、マッピングが必要な LUN を簡単に識別できます。 LUN を仮想ホストに接続したら、ディスクグループ内でマッピングが必要なデバイスを識別するために「vxdisk -o alldgs list」を使うことができます。
Veritas InfoScale Solutions 製品を仮想ホストにインストールしておらず、物理サーバーが Linux システムの場合には、マッピングが必要なデバイスは物理サーバーのデバイス ID を使って識別できます。
Veritas InfoScale Solutions 製品を物理サーバーにのみインストールし、RHEV の SF 管理ユーティリティ
vxrhevadmを RHEV-M コンピュータにインストールしている場合は、ゲストの DMP デバイスマッピングを正確に識別できます。 ただし、ボリュームとファイルシステムのマップの場合にホストのデバイスマッピングを正確に識別するには、ヒューリスティックを実行します。
ホストとゲストに Storage Foundation をインストールしている場合に物理から仮想への移行を実装するには(KVM のみ)
- マッピングが必要なデバイスの Linux デバイス ID を見つけます。
# vxdg list diskgroup
- ディスクグループの各ディスクに対して、次のコマンドを実行します。
# vxdmpadm getsubpaths dmpnodename=device # ls -al /dev/disk/by-id/* | grep subpath
Storage Foundation がホストにインストールされていない場合は、物理サーバーを廃止する前に、デバイスのシリアル番号を使用して、マップを必要とする LUN を識別します。 LUN は永続的な「by-path」デバイスリンクを使用しているゲストにマップできます。
Storage Foundation をホストにインストールしていない場合に物理から仮想への移行を実装するには(KVM のみ)
- 物理サーバーで、KVM ホストにマップする必要のある LUN を udevadm コマンドを使って識別します。
- 仮想化ホストに LUN をマップします。
udev データベースを使用して、マップされる必要のあるホストのデバイスを識別できます。
# udevadm info --export-db | grep '/dev/disk/by-path' | \ cut -d' ' -f4 /dev/disk/by-path/pci-0000:05:00.0-fc-0x5006016239a01884-lun-1 /dev/disk/by-path/pci-0000:05:00.0-fc-0x5006016239a01884-lun-2
ゲストに LUN をマップします。 この例では複数のパスがあるため、4 つのすべてのパスに対する一貫性のあるデバイスマッピングを確保するように、パスシンボリックリンクを使用できます。
# virsh attach-disk guest1 \ /dev/disk/by-path/pci-0000:05:00.0-fc-0x5006016239a01884-lun-1 \ vdb # virsh attach-disk guest1 \ /dev/disk/by-path/pci-0000:05:00.0-fc-0x5006016239a01884-lun-2 \ vdc - デバイスがゲストに正しくマップされることを確認します。 設定変更は、ゲストを再定義することによって永続的にすることができます。
# virsh dumpxml guest1 > /tmp/guest1.xml # virsh define /tmp/guest1.xm
ゲストとホストに Storage Foundation をインストールしている場合に物理から仮想への移行を実装するには(KVM のみ)
- 仮想化ホストに LUN をマップします。
- 仮想化ホストで、マップを必要とするデバイスを識別します。 たとえば、ディスクグループ data_dg のあるデバイスは guest1 にマップされます。
# vxdisk -o alldgs list |grep data_dg 3pardata0_1 auto:cdsdisk - (data_dg) online 3pardata0_2 auto:cdsdisk - (data_dg) online
- ゲストにデバイスをマップします。
# virsh attach-disk guest1 /dev/vx/dmp/3pardata0_1 vdb Disk attached successfully # virsh attach-disk guest1 /dev/vx/dmp/3pardata0_2 vdc Disk attached successfully
- ゲストで、すべてのデバイスが正しくマップされることと、ディスクグループが利用可能であることを確認します。
# vxdisk scandisks # vxdisk -o alldgs list |grep data_dg 3pardata0_1 auto:cdsdisk - (data_dg) online 3pardata0_2 auto:cdsdisk - (data_dg) online
- 仮想化ホストでゲストを再定義して、マップを永続的にします。
# virsh dumpxml guest1 > /tmp/guest1.xml # virsh define /tmp/guest1.xml
ゲストと、RHEV の SF 管理ユーティリティ、vxrhevadm のみに Storage Foundation がある場合に物理から仮想への移行(P2V)を実装するには、RHEV Manager 上で次の手順を実行します。
- 仮想化ホストに LUN をマップします。
- 仮想化ホストで、マップを必要とするデバイスを識別します。 たとえば、ディスクグループ data_dg のあるデバイスは guest1 にマップされます。
# vxdisk list -guest1 <data_dg> DMP nodes # vxprint -guest1 <data_dg> -v, volume # vxfs, file created on vxfs filesystem
- それぞれの仮想マシンに各エンティティを接続します。
# ./vxrhevadm -p <password> -n <VM name> -d <dmpnode> attach Attached a dmp node to the specified virtual machine # ./vxrhevadm -p <password> -n <VM name> -v <volume> attach Attached a volume device to the specified virtual machine # ./vxrhevadm -p <password> -n <VM name> -f <file>:raw attach Attached a file system device to the specified virtual machine
- ゲスト仮想マシンの電源を入れて SCSI ディスクがゲスト仮想マシンで利用可能であることを確認します。
メモ:
/var/log/vdsm/vdsm.logで参照できる XML ダンプには、デバイスのマップに関するヒントが記録されています。 DMP ノードの場合は、ホストで永続的な命名を有効にしてゲストのデバイスマッピングを識別できるようにします。 ボリュームとファイルシステムのマップの場合は、ヒューリスティックを実行してゲストのデバイスマッピングを識別します。
新しい仮想マシンを設定する場合に、Veritas Volume Manager ボリュームをブートデバイスとして使うには、次の手順を実行します。
- Linux の仮想化マニュアルが推奨する手順に従って、VM ゲストをインストールしてブートします。
ブートデバイスに管理対象ストレージまたは既存ストレージを選択するように求められた場合は、VxVM ストレージボリュームブロックデバイスへの絶対パスを使用します(たとえば、/dev/vx/dsk/boot_dg/bootdisk-vol)。
- virt-install ユーティリティを使う場合は、--disk パラメータとともに VxVM ボリュームブロックデバイスへの絶対パスを入力します(たとえば、--disk path=/dev/vx/dsk/boot_dg/bootdisk-vol)。
新しい仮想マシンを設定するときに、Storage Foundation コンポーネントをブートデバイスとして使うには
- Linux の仮想化マニュアルが推奨する手順に従って、VM ゲストをインストールしてブートします。
ブートデバイスに管理対象ストレージまたは既存のストレージを選択するように求められた場合は、VxVM ストレージボリュームブロックデバイス、ファイルシステムデバイス、DMP ノードのいずれかの絶対パスを使います。
例: /dev/vx/dsk/boot_dg/bootdisk-vol
同様に、/dev/vx/dsk/boot_dg/bootdisk-file または /dev/vx/dsk/boot_dg/bootdisk-dmpnode。
- 仮想マシンの RHEV Manager の拡張設定でブートオプションを選択して適切な ISO イメージを接続します。
- ブートオプションとして DMP ノード、ボリュームブロックデバイス、ファイルシステムデバイスのいずれかを接続します。
# /opt/VRTSrhevm/bin/vxrhevadm -p \
<rhevm-password> -n <vmname> -d <dmpnode-path> attach
# /opt/VRTSrhevm/bin/vxrhevadm -p \
<rhevm-password> -n <vmname> -v <volume-path> attach
# /opt/VRTSrhevm/bin/vxrhevadm -p \
<rhevm-password> -n <vmname> -f <file-path:raw> | <file-path:qcow2> attach
- ゲスト仮想マシンを開始して ISO からブートします。
- SCSI デバイスとして表示される SF エンティティに OS をインストールします。 SCSI デバイス自体にブートローダーをインストールします。
- ゲストの仮想マシンの電源を切ります。
- ゲスト仮想マシンの設定で、ハードディスクからブートするホストを設定します。
- 設定した SF コンポーネントから予約するゲストの電源を入れます。