検索クエリーを入力してください
<book_title> を検索 ...
Storage Foundation and High Availability 7.4 設定およびアップグレードガイド- Solaris
Last Published:
2018-07-05
Product(s):
InfoScale & Storage Foundation (7.4)
Platform: Solaris
- 第 I 部 SFHA の概要
- 第 II 部 SFHA の設定
- 設定の準備
- データ整合性のための SFHA クラスタ設定の準備
- SFHA の設定
- インストーラを使った Storage Foundation High Availability の設定
- 製品インストーラを使って SFHA を設定するタスクの概要
- Storage Foundation and High Availability Solutions の設定に必要な情報
- ソフトウェアの設定の開始
- 設定するシステムの指定
- クラスタ名の設定
- プライベートハートビートリンクの設定
- クラスタの仮想 IP の設定
- セキュアモードでの SFHA の設定
- ノード別のセキュアクラスタノードの設定
- VCS ユーザーの追加
- SMTP 電子メール通知の設定
- SNMP トラップ通知の設定
- グローバルクラスタの設定
- SFHA 設定の完了
- Veritas ライセンス監査ツールについて
- システム上のライセンスの確認と更新
- SFDB の設定
- インストーラを使った Storage Foundation High Availability の設定
- データ整合性のための SFHA クラスタの設定
- データ整合性のための SFHA クラスタの手動設定
- 応答ファイルを使用した SFHA 自動設定の実行
- 応答ファイルを使用した自動 I/O フェンシング設定の実行
- 第 III 部 SFHA のアップグレード
- SFHA のアップグレード計画
- Storage Foundation and High Availability のアップグレード
- SFHA のローリングアップグレードの実行
- SFHA の段階的アップグレードの実行
- 応答ファイルを使用した SFHA 自動アップグレードの実行
- ブート環境のアップグレードを使用した SFHA のアップグレード
- アップグレード後のタスクの実行
- オプションの設定手順
- 自動アップグレードが失敗した場合の VVR のリカバリ
- VCS Agents for VVR が設定されている場合のアップグレード後のタスク
- DAS ディスク名をリセットして FSS 環境のホスト名を含める
- ディスクレイアウトバージョンのアップグレード
- VxVM ディスクグループのバージョンのアップグレード
- 変数の更新
- デフォルトディスクグループの設定
- ASL のアップグレード
- QuickLog からマルチボリュームサポートへの変換
- セキュアモードで動作するクラスタの LDAP 認証の有効化について
- Storage Foundation and High Availability のアップグレードの確認
- 第 IV 部 インストール後のタスク
- 第 V 部 ノードの追加と削除
- 第 VI 部 設定およびアップグレードの参照
- 付録 A. インストールスクリプト
- 付録 B. SFHA サービスとポート
- 付録 C. 設定ファイル
- 付録 D. セキュアシェルまたはリモートシェルの通信用の設定
- 付録 E. CP サーバーベースの I/O フェンシングのSFHA cluster設定図サンプル
- 付録 F. NFS 共有ディスクのメジャー番号とマイナー番号の一致
- 付録 G. UDP 上での LLT の設定
2 ノード SFHA クラスタでホストされる CP サーバーの main.cf ファイルの例
次に、CP サーバーが SFHA クラスタでホストされる場合の main.cf の例を示します。
SFHA クラスタでホストされるこの CP サーバーの main.cf では、次の値に注意してください。
クラスタ名: cps1
クラスタ内のノード: cps1、cps2
include "types.cf"
include "CFSTypes.cf"
include "CVMTypes.cf"
include "/opt/VRTScps/bin/Quorum/QuorumTypes.cf"
// cluster: cps1
// CP servers:
// cps1
// cps2
cluster cps1 (
UserNames = { admin = ajkCjeJgkFkkIskEjh,
"cps1.example.com@root@vx" = JK,
"cps2.example.com@root@vx" = dl }
Administrators = { admin, "cps1.example.com@root@vx",
"cps2.example.com@root@vx" }
SecureClus = 1
)
system cps1 (
)
system cps2 (
)
group CPSSG (
SystemList = { cps1 = 0, cps2 = 1 }
AutoStartList = { cps1, cps2 } )
DiskGroup cpsdg (
DiskGroup = cps_dg
)
IP cpsvip1 (
Critical = 0
Device @cps1 = bge0
Device @cps2 = bge0
Address = "10.209.81.88"
NetMask = "255.255.252.0"
)
IP cpsvip2 (
Critical = 0
Device @cps1 = bge1
Device @cps2 = bge1
Address = "10.209.81.89"
NetMask = "255.255.252.0"
)
Mount cpsmount (
MountPoint = "/etc/VRTScps/db"
BlockDevice = "/dev/vx/dsk/cps_dg/cps_volume"
FSType = vxfs
FsckOpt = "-y"
)
NIC cpsnic1 (
Critical = 0
Device @cps1 = bge0
Device @cps2 = bge0
PingOptimize = 0
NetworkHosts @cps1 = { "10.209.81.10 }
)
NIC cpsnic2 (
Critical = 0
Device @cps1 = bge1
Device @cps2 = bge1
PingOptimize = 0
)
Process vxcpserv (
PathName = "/opt/VRTScps/bin/vxcpserv"
)
Quorum quorum (
QuorumResources = { cpsvip1, cpsvip2 }
)
Volume cpsvol (
Volume = cps_volume
DiskGroup = cps_dg
)
cpsmount requires cpsvol
cpsvip1 requires cpsnic1
cpsvip2 requires cpsnic2
cpsvol requires cpsdg
vxcpserv requires cpsmount
vxcpserv requires quorum
// resource dependency tree
//
// group CPSSG
// {
// IP cpsvip1
// {
// NIC cpsnic1
// }
// IP cpsvip2
// {
// NIC cpsnic2
// }
// Process vxcpserv
// {
// Quorum quorum
// Mount cpsmount
// {
// Volume cpsvol
// {
// DiskGroup cpsdg
// }
// }
// }
// }