Veritas InfoScale™ 8.0 ディザスタリカバリ実装ガイド - Linux
- 第 I 部 ディザスタリカバリのための Storage Foundation and High Availability Solutions の概要
- 第 II 部 キャンパスクラスタの実装
- 第 III 部 RDC (Replicated Data Cluster) の実装
- 第 IV 部 グローバルクラスタの実装
- VCS と SFHA 用のグローバルクラスタの設定
- グローバルクラスタの Storage Foundation Cluster File System High Availability、Storage Foundation for Oracle RAC、または Storage Foundation for Sybase CE での設定
- グローバルクラスタの VVR と Storage Foundation Cluster File System High Availability、Storage Foundation for Oracle RAC、または Storage Foundation for Sybase CE での設定
- 第 V 部 参照先
セカンダリサイトにおける VCS 設定の修正
セカンダリサイトにおける既存の VCS 設定の修正のための処理のうち、主なものは次の通りです。
ログ所有者と RVG(Replicated Volume Group)サービスグループを追加します。
サービスグループを追加して、データベースとサポートするリソースを管理します。
セカンダリサイトのクラスタがプライマリクラスタと対になるように、オブジェクトとエージェントのレプリケーションを定義します。
次の手順は、プライマリサイトと同様です。
セカンダリサイトの VCS を修正するには
- セカンダリサイトのノードの 1 つに、root としてログインします。
- 次のコマンドを使って、既存の設定をディスクに保存し、変更中は設定を読み取り専用にします。
# haconf -dump -makero
- 次のコマンドを使って、main.cf ファイルのバックアップを作成します。
# cd /etc/VRTSvcs/conf/config # cp main.cf main.orig
- vi などのテキストエディタを使って、main.cf ファイルを編集します。セカンダリサイトで CVM グループを編集します。
VCS のインストール後の設定ファイル例を参照し、CVM 設定を確認します。
「SF Oracle RAC の設定ファイル例を表示するには」を参照してください。
「SF Sybase CE の設定ファイル例を表示するには」を参照してください。
次の例では、セカンダリサイトにノード sys3 と sys4 から成る clus2 があります。セカンダリサイトで CVM サービスグループを変更するには、プライマリサイトの CVM グループをガイドとして使います。
- RVGLogowner サービスグループの例
クラスタとノードに最適な値を使って、フェールオーバーサービスグループを追加します。次のリソースを含んでいます。
RVGLogowner リソース。 グループがオンラインのノードは、ログ所有者(データのレプリケーションを目的としてセカンダリクラスタに接続されたノード)として機能します。
IP リソース
NIC リソース
group rlogowner ( SystemList = { sys3 = 0, sys4 = 1 } AutoStartList = { sys3, sys4 } ) IP logowner_ip ( Device = eth0 Address = "10.11.9.102" NetMask = "255.255.255.0" ) NIC nic ( Device = eth0 NetworkHosts = { "10.10.8.1" } NetworkType = ether ) RVGLogowner logowner ( RVG = dbdata_rvg DiskGroup = dbdatadg ) requires group RVGgroup online local firm logowner requires logowner_ip logowner_ip requires nic
- クラスタとノードに最適な値を使って、RVG サービスグループを追加します。
RVGgroup サービスグループの例を次に示します。
group RVGgroup ( SystemList = { sys3 = 0, sys4 = 1 } Parallel = 1 AutoStartList = { sys3, sys4 } ) RVGShared dbdata_rvg ( RVG = dbdata_rvg DiskGroup = dbdatadg ) CVMVolDg dbdata_voldg ( CVMDiskGroup = dbdatadg CVMActivation = sw ) requires group cvm online local firm dbdata_rvg requires dbdata_voldg
- 両方のクラスタの IP リソースタイプの「OnlineRetryLimit」属性と「OfflineWaitLimit」属性を 1 に変更することを推奨します。
# hatype -modify IP OnlineRetryLimit 1
# hatype -modify IP OfflineWaitLimit 1
- 次の設定例を参照してください。
データベースサービスグループを追加します。プライマリサイトのデータベースサービスグループを、セカンダリサイトのデータベースサービスグループのモデルとして使います。
プライマリとセカンダリサイトのクラスタを ClusterList グループ属性値として指定することで、データベースサービスグループをグローバルグループとして定義します。
このグローバルグループにプライマリサイトのグループと同じ名前を割り当てます。たとえば、database_grp です。
ClusterList クラスタ属性と ClusterFailOverPolicy クラスタ属性を含めます。値は Manual にすることをお勧めします。
RVGSharedPri リソースをグループの設定に追加します。
以前の設定に CVMVolDg リソースが含まれていた場合は、それを削除します。 このリソースが RVG サービスグループの一部になります。
RVG サービスグループに依存する(online-local-firm)ようにサービスグループを指定します。
- main.cf ファイルを保存して閉じます。
- 次のコマンドを使って、/etc/VRTSvcs/conf/config/main.cf ファイルの構文を検証します。
# hacf -verify /etc/VRTSvcs/conf/config
- VCS を停止し、再起動します。
# hastop -all -force
ポート h がすべてのノードで停止するまで待機してから、すべてのプライマリノードで VCS を 1 つずつ新しい設定で再起動します。
# hastart
- すべてのリソースが VCS によってオンライン状態になったことを確認します。1 つのノードで、次のコマンドを入力します。
# hagrp -display
データベース、RVG および CVM の各グループは、プライマリサイトの両方のノードでオンラインになりました。RVGLogOwner と ClusterService グループは、クラスタの 1 つのノードでオンラインです。RVG グループまたは RVGLogOwner グループのいずれかが部分的にオンラインになっている場合は、hagrp -online コマンドを使って、手動でグループをオンラインにできます。セカンダリクラスタについても同様にします。ただし、データベースグループはオフラインにします。
- サービスグループとそのリソースがオンラインであることを確認します。1 つのノードで、次のコマンドを入力します。
# hagrp -display
データベースサービスグループがセカンダリサイトでオフラインでも、ClusterService、CVM、RVG log owner、RVG グループはオンラインです。
これで、レプリケーション用の VVR を使ったグローバルクラスタの設定が完了します。実稼動の前にグローバルクラスタをテストすることをお勧めします。
次に、セカンダリサイトの Oracle RAC データベースグループの例を示します。
group database_grp ( SystemList = { sys3 = 0, sys3 = 1 } ClusterList = { clus2 = 0, clus1 = 1 } Parallel = 1 OnlineRetryInterval = 300 ClusterFailOverPolicy = Manual Authority = 1 AutoStartList = { sys3, sys4 } ) RVGSharedPri dbdata_vvr_shpri ( RvgResourceName = rdbdata_rvg OnlineRetryLimit = 0 ) CFSMount dbdata_mnt ( MountPoint = "/dbdata" BlockDevice = "/dev/vx/dsk/dbdatadg/dbdata_vol" Critical = 0 )RVGSharedPri dbdata_vvr_shpri ( RvgResourceName = dbdata_rvg OnlineRetryLimit = 0 ) Oracle rac_db ( Sid @sys3 = vrts1 Sid @sys4 = vrts2 Owner = Oracle Home = "/oracle/orahome" Pfile @sys3 = "/oracle/orahome/dbs/initvrts1.ora" Pfile @sys4 = "/oracle/orahome/dbs/initvrts2.ora" StartUpOpt = SRVCTLSTART ShutDownOpt = SRVCTLSTOP ) requires group RVGgroup online local firm dbdata_mnt requires dbdata_vvr_shpri rac_db requires dbdata_mnt RVGSharedPri dbdata_vvr_shpri ( RvgResourceName = dbdata_rvg OnlineRetryLimit = 0 ) requires group RVGgroup online local firm dbdata_mnt requires dbdata_vvr_shpri
セカンダリサイトの Sybase ASE CE データベースグループの例:
. group sybase ( SystemList = { sys3 = 0, sys4 = 1 } ClusterList = { clus2 = 0, clus1 = 1 } Parallel = 1 OnlineRetryInterval = 300 ClusterFailOverPolicy = Manual Authority = 1 # AutoStart = 0 here so faulting will not happen AutoStartList = { sys3, sys4 } ) CFSMount dbdata_mnt ( MountPoint = "/dbdata" BlockDevice = "/dev/vx/dsk/dbdatadg/dbdata_vol" ) RVGSharedPri dbdata_vvr_shpri ( RvgResourceName = dbdata_rvg OnlineRetryLimit = 0 ) CFSMount quorum_101_quorumvol_mnt ( MountPoint = "/quorum" BlockDevice = "/dev/vx/dsk/quorum_101/quorumvol" ) CVMVolDg quorum_101_voldg ( CVMDiskGroup = quorum_101 CVMVolume = { quorumvol } CVMActivation = sw ) Sybase ase ( Sid @sys3 = ase1 Sid @sys4 = ase2 Owner = sybase Home = "/sybase" Version = 15 SA = sa Quorum_dev = "/quorum/q.dat" ) requires group RVGgroup online local firm dbdata_mnt requires dbdata_vvr_shpri ase requires vxfend ase requires dbdata_mnt ase requires quorum_101_quorumvol_mnt quorum_101_quorumvol_mnt requires quorum_101_voldg