Storage Foundation and High Availability 8.0.2 設定およびアップグレードガイド - Linux
- 第 I 部 SFHA の概要
- 第 II 部 SFHA の設定- 設定の準備
- データ整合性のための SFHA クラスタ設定の準備
- SFHA の設定- インストーラを使った Storage Foundation High Availability の設定- 製品インストーラを使って SFHA を設定するタスクの概要
- Storage Foundation and High Availability Solutions の設定に必要な情報
- ソフトウェアの設定の開始
- 設定するシステムの指定
- クラスタ名の設定
- プライベートハートビートリンクの設定
- クラスタの仮想 IP の設定
- セキュアモードでの SFHA の設定
- ノード別のセキュアクラスタノードの設定
- VCS ユーザーの追加
- SMTP 電子メール通知の設定
- SNMP トラップ通知の設定
- グローバルクラスタの設定
- SFHA 設定の完了
- Veritas ライセンス監査ツールについて
- システム上のライセンスの確認と更新
 
- SFDB の設定
 
- インストーラを使った Storage Foundation High Availability の設定
- データ整合性のための SFHA クラスタの設定
- データ整合性のための SFHA クラスタの手動設定
- 応答ファイルを使用した SFHA 自動設定の実行
- 応答ファイルを使用した自動 I/O フェンシング設定の実行- 応答ファイルを使った I/O フェンシングの設定
- ディスクベースの I/O フェンシングを設定するための応答ファイルの変数
- ディスクベースの I/O フェンシングを設定するための応答ファイルの例
- サーバーベースの I/O フェンシングを設定するための応答ファイルの変数
- サーバーベースの I/O フェンシングを設定するためのサンプル応答ファイル
- 非 SCSI-3 I/O フェンシングを設定するための応答ファイルの変数
- 非 SCSI-3 I/O フェンシングを設定するための応答ファイルの例
- マジョリティベース I/O フェンシングを設定するための応答ファイルの変数
- 過半数ベースの I/O フェンシングを設定するための応答ファイルの例
 
 
- 第 III 部 SFHA のアップグレード- SFHA のアップグレード計画- アップグレードについて
- サポート対象のアップグレードパス
- Oracle リソースを使って設定されたシステムで SFHA を 8.0.2 にアップグレードする場合の注意事項
- SFHA のアップグレードの準備
- REST サーバーのアップグレードに関する注意事項
- インストールバンドルを使ったフルリリース (ベース、メンテナンス、ローリングパッチ) と個々のパッチの同時インストールまたは同時アップグレード
 
- Storage Foundation and High Availability のアップグレード
- SFHA のローリングアップグレードの実行
- SFHA の段階的アップグレードの実行
- 応答ファイルを使用した SFHA 自動アップグレードの実行
- アップグレード後のタスクの実行- オプションの設定手順
- 現在のディスクグループへのバックアップブートディスクグループの再結合
- アップグレードに失敗した場合にバックアップブートディスクグループに戻す
- 自動アップグレードが失敗した場合の VVR のリカバリ
- VCS Agents for VVR が設定されている場合のアップグレード後のタスク
- DAS ディスク名をリセットして FSS 環境のホスト名を含める
- ディスクレイアウトバージョンのアップグレード
- VxVM ディスクグループのバージョンのアップグレード
- 変数の更新
- デフォルトディスクグループの設定
- セキュアモードで動作するクラスタの LDAP 認証の有効化について
- Storage Foundation and High Availability のアップグレードの確認
 
 
- SFHA のアップグレード計画
- 第 IV 部 インストール後の作業
- 第 V 部 ノードの追加と削除
- 第 VI 部 設定およびアップグレードの参照- 付録 A. インストールスクリプト
- 付録 B. SFHA サービスとポート
- 付録 C. 設定ファイル
- 付録 D. セキュアシェルまたはリモートシェルの通信用の設定
- 付録 E. CP サーバーベースの I/O フェンシングのためのサンプル SFHA クラスタ設定図
- 付録 F. UDP 上での LLT の設定
- 付録 G. RDMA 上での LLT の使用- RDMA 上での LLT の使用
- クラスタ環境の RoCE または InfiniBand ネットワーク上の RDMA について
- アプリケーション間のより高速の相互接続のための LLT での RDMA 機能のサポートについて
- RDMA 上の LLT の使用: サポート対象の使用例
- RDMA 上の LLT の設定
- RDMA 上の LLT のトラブルシューティング
 
 
サーバーベースのフェンシング用に出力される vxfenmode ファイルのサンプル
次は、サーバーベースのフェンシング用 vxfenmode サンプルファイルです。
#
# vxfen_mode determines in what mode VCS I/O Fencing should work.
#
# available options:
# scsi3      - use scsi3 persistent reservation disks
# customized - use script based customized fencing
# disabled   - run the driver but don't do any actual fencing
#
vxfen_mode=customized
# vxfen_mechanism determines the mechanism for customized I/O 
# fencing that should be used.
# 
# available options:
# cps      - use a coordination point server with optional script
#            controlled scsi3 disks
#
vxfen_mechanism=cps
#
# scsi3_disk_policy determines the way in which I/O fencing
# communicates with the coordination disks. This field is 
# required only if customized coordinator disks are being used.
#
# available options:
# dmp - use dynamic multipathing
#
scsi3_disk_policy=dmp
#
# vxfen_honor_cp_order determines the order in which vxfen 
# should use the coordination points specified in this file.
#
# available options:
# 0	- vxfen uses a sorted list of coordination points specified
# in this file, 
# the order in which coordination points are specified does not matter.
#	  (default)
# 1	- vxfen uses the coordination points in the same order they are
# 	  specified in this file
# Specify 3 or more odd number of coordination points in this file,
# each one in its own line. They can be all-CP servers, 
# all-SCSI-3 compliant coordinator disks, or a combination of
# CP servers and SCSI-3 compliant coordinator disks.
# Please ensure that the CP server coordination points
# are numbered sequentially and in the same order
# on all the cluster nodes.
#
# Coordination Point Server(CPS) is specified as follows:
#
# 	cps<number>=[<vip/vhn>]:<port>
#
# If a CPS supports multiple virtual IPs or virtual hostnames
# over different subnets, all of the IPs/names can be specified
# in a comma separated list as follows:
#
#	cps<number>=[<vip_1/vhn_1>]:<port_1>,[<vip_2/vhn_2>]:<port_2>,
...,[<vip_n/vhn_n>]:<port_n>
#
# Where,
#	<number>
#		is the serial number of the CPS as a coordination point; must
#		start with 1.
#	<vip>
#		is the virtual IP address of the CPS, must be specified in
#		square brackets ("[]").
#	<vhn>
#		is the virtual hostname of the CPS, must be specified in square
#		brackets ("[]").
#	<port>
#		is the port number bound to a particular <vip/vhn> of the CPS.
#		It is optional to specify a <port>. However, if specified, it
#		must follow a colon (":") after <vip/vhn>. If not specified, the
#		colon (":") must not exist after <vip/vhn>.
#
# For all the <vip/vhn>s which do not have a specified <port>,
# a default port can be specified as follows:
#
#	port=<default_port>
#
# 	Where <default_port> is applicable to all the <vip/vhn>s for 
#  which a <port> is not specified. In other words, specifying 
# 	<port> with a <vip/vhn> overrides the <default_port> for that 
# 	<vip/vhn>. If the <default_port> is not specified, and there 
#	 are <vip/vhn>s for which <port> is not specified, then port 
#	 number 14250 will be used for such <vip/vhn>s.
#
# Example of specifying CP Servers to be used as coordination points:
#	port=57777
#	cps1=[192.168.0.23],[192.168.0.24]:58888,[cps1.company.com]
# 	cps2=[192.168.0.25]
#	cps3=[cps2.company.com]:59999
#
#	In the above example,
#	- port 58888 will be used for vip [192.168.0.24]
#	- port 59999 will be used for vhn [cps2.company.com], and
#	- default port 57777 will be used for all remaining <vip/vhn>s:
#	   [192.168.0.23]
#	   [cps1.company.com]
#	   [192.168.0.25]
#	- if default port 57777 were not specified, port 14250 
# would be used for all remaining <vip/vhn>s:
#	   [192.168.0.23]
#	   [cps1.company.com]
#	   [192.168.0.25]
#
# SCSI-3 compliant coordinator disks are specified as:
#	  
# 	vxfendg=<coordinator disk group name>
#	Example:
#		vxfendg=vxfencoorddg
#
# Examples of different configurations:
# 	1. All CP server coordination points
#	cps1=
#	cps2=
#	cps3=
#
#	2. A combination of CP server and a disk group having two SCSI-3 
#	coordinator disks 
#	cps1=
#	vxfendg=
#	Note: The disk group specified in this case should have two disks
#
#	3. All SCSI-3 coordinator disks
#	vxfendg=
#	Note: The disk group specified in case should have three disks 
# cps1=[cps1.company.com]
# cps2=[cps2.company.com]
# cps3=[cps3.company.com]
# port=443
表: vxfenmode ファイルのパラメータ には、編集する必要のある vxfenmode パラメータが定義されています。
表: vxfenmode ファイルのパラメータ
| vxfenmode ファイルのパラメータ | 説明 | 
|---|---|
| vxfen_mode | フェンシングの動作モード。このパラメータは、「customized」に設定する必要があります。 | 
| vxfen_mechanism | フェンシング機構。このパラメータは、フェンシングに使われる機構を定義します。3 つのコーディネーションポイントのいずれかが CP サーバーである場合は、このパラメータを「cps」に設定する必要があります。 | 
| scsi3_disk_policy | DMP デバイスを使うように vxfen モジュールを設定する場合、「dmp」にします。 メモ: 設定されたディスクポリシーはすべてのノードに適用されます。 | 
| cps1、cps2、vxfendg | コーディネーションポイントのパラメータ。 CP サーバーの仮想 IP アドレスまたは FQHN(アクセス可能などちらか)を入力します。 cps<番号>=[virtual_ip_address/virtual_host_name]:port ここで port はオプションです。ポートのデフォルト値は 443 です。 異なるサブネットに複数の仮想 IP アドレスまたはホスト名を設定した場合は、カンマで区切られた値で指定できます。次に例を示します。 cps1=[192.168.0.23],[192.168.0.24]:58888, [cps1.company.com] メモ: I/O フェンシング設定でコーディネータディスクが使われる場合は常に、ディスクグループ(vxfencoorddg)を作成し、それを /etc/vxfenmode ファイルに指定する必要があります。さらに、カスタマイズされたフェンシングフレームワークによって、/etc/vxfentab ファイルが生成されます。このファイルは、セキュリティの設定とコーディネーションポイント(/etc/vxfenmode ファイルに指定されているディスクグループ内のすべての CP サーバーとディスク)を指定します。 | 
| port | CP サーバーがリスニングするデフォルトのポート。 それぞれの仮想 IP アドレスまたはホスト名にポート番号を指定しなかった場合は、CP サーバーがそれぞれの仮想 IP アドレスまたはホスト名に使用するデフォルトのポート番号は 443 です。 このデフォルトのポート値はポートパラメータを使用して変更できます。 | 
| single_cp | single_cp パラメータの値 1 は、サーバー型のフェンシングが単一の高可用性 CP サーバーをその唯一のコーディネーションポイントとして使うことを示します。 single_cp パラメータの値 0 は、サーバー型のフェンシングが少なくとも 3 つのコーディネーションポイントを使うことを示します。 | 
| vxfen_honor_cp_order | 値を 1 に設定すると、ネットワーク分割のシナリオ中、vxfen モジュールはコーディネーションポイントを特定の順序で使います。 デフォルトではこのパラメータは無効です。デフォルト値は 0 です。 |