Veritas NetBackup™ Appliance 容量計画とパフォーマンスチューニングガイド
- このマニュアルについて
- 第 I 部 容量計画
- 第 II 部 ベストプラクティス
- 第 III 部 パフォーマンスチューニング
- 第 IV 部 容量計画とパフォーマンスチューニングのクイックリファレンス
I/O の監視と調整について
表: サンプル I/O 統計(iostat - kxdt 5 で収集される) は、iostat からのサンプル出力です。Device 列で、sdxx は SCSI デバイスの統計を表示し、VxVMxx は VxVM 仮想ボリュームの統計を表示します。各列の完全な説明については、iostat コマンドのマニュアルページを参照してください。
表: サンプル I/O 統計(iostat - kxdt 5 で収集される)
デバイス |
Rrqm/s |
Wrqm/s |
r/s |
w/s |
rKB/s |
wKB/s |
Avg rqsz |
Avg qusz |
Await |
Svctm |
%util |
---|---|---|---|---|---|---|---|---|---|---|---|
sdaw |
0 |
0.4 |
0 |
8.8 |
0 |
3552 |
807.16 |
0.01 |
1.64 |
1.36 |
1.2 |
sdax |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
sdaz |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
sdba |
0 |
0 |
0 |
8 |
0 |
2894 |
723.4 |
0.01 |
1.7 |
1.1 |
0.88 |
sdbb |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
sdbc |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
sdbd |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
sdbe |
0 |
0.2 |
0 |
17 |
0 |
6786 |
798.33 |
0.03 |
1.88 |
1.36 |
2.32 |
sdbf |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
sdbg |
0 |
0.4 |
0.2 |
14.8 |
1.6 |
5468 |
729.32 |
0.12 |
8.11 |
4.53 |
6.8 |
sdbh |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
sdbi |
0 |
0.2 |
0.2 |
8.8 |
1.6 |
3222 |
716.27 |
0.02 |
2.67 |
1.69 |
1.52 |
sdbj |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
sdag |
0 |
0 |
0 |
15.2 |
0 |
6358 |
836.63 |
0.03 |
2.05 |
1.32 |
2 |
VxVM3 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
VxVM4 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
VxVM5 |
0 |
45 |
0.6 |
17.8 |
4.8 |
12303 |
1337.85 |
0.04 |
2.26 |
1.61 |
2.96 |
VxVM6 |
0 |
53.8 |
0 |
18.4 |
0 |
13502 |
1467.65 |
0.05 |
2.65 |
1.87 |
3.44 |
VxVM7 |
0 |
18 |
0.4 |
8.4 |
3.2 |
5743 |
1305.86 |
0.02 |
2.18 |
1.36 |
1.2 |
VxVM8 |
0 |
38.6 |
0.6 |
16.2 |
4.8 |
11225 |
1336.87 |
0.2 |
11.62 |
7.52 |
12.64 |
VxVM9 |
0 |
60 |
0.2 |
19.2 |
1.6 |
13064 |
1346.96 |
0.04 |
2.23 |
1.65 |
3.2 |
VxVM10 |
0 |
29.8 |
0 |
10.4 |
0 |
7349 |
1413.23 |
0.02 |
2.23 |
1.62 |
1.68 |
VxVM11 |
0 |
26.8 |
0.4 |
11.8 |
3.2 |
6573 |
1077.98 |
0.03 |
2.1 |
1.64 |
2 |
VxVM12 |
0 |
30 |
0.2 |
11.2 |
1.6 |
7440 |
1305.54 |
0.02 |
2.18 |
1.68 |
1.92 |
VxVM13 |
0 |
45 |
0.2 |
15.6 |
1.6 |
11652 |
1475.11 |
0.04 |
2.43 |
1.67 |
2.64 |
VxVM14 |
0 |
45 |
0.2 |
17.4 |
1.6 |
11895 |
1351.86 |
0.04 |
2.05 |
1.45 |
2.56 |
VxVM15 |
0 |
21 |
0.4 |
11.2 |
3.2 |
6814 |
1175.38 |
0.03 |
2.76 |
1.93 |
2.24 |
VxVM16 |
0 |
36 |
0.2 |
17 |
1.6 |
13358 |
1553.44 |
0.05 |
2.84 |
1.77 |
3.04 |
iostat は SCSI デバイスと VxVM デバイスの両方の I/O 統計を表示します。ほとんどの場合、分析する必要があるのは VxVM の統計のみです。上記の表で、VxVM5 ~ VxVM16 は MSDP でバックアップデータを保存するために使用される 12 個の VxVM ボリュームです。各ボリュームは 7+2 Hardware RAID 6 LUN に存在し、ファイルシステムは各 LUN の上に作成されます。そのため、各ボリュームはマウントされている 1 つのファイルシステムに対応します。
iostat のマニュアルページには iostat 出力の各列の完全な説明が含まれています。一部の列について以下で説明します。
wrqm/s |
1 秒ごとにマージされるキューに登録された要求をデバイスに書き込みます。この列の値が大きいと、I/O パターンが連続していることを示すため、複数の I/O 要求がマージされて 1 つの要求としてデバイスに送信される機会が多くなります。ほとんどの場合、読み書きする要求のマージが多いと、I/O サブシステムのパフォーマンスが向上します。 |
wKB/s |
1 秒間にデバイスに書き込まれるキロバイト数。 |
avgrq-sz |
I/O 要求の平均サイズ(セクター内) |
avgqu-sz |
デバイスキューで待機している平均 I/O 要求数 |
await |
I/O 要求の処理時間(ミリ秒単位)。これには、デバイスのキュー時間と要求が処理される時間の両方が含まれます(つまり、svctm)。 |
svctm |
I/O 要求の平均処理時間 |
wKB/秒は 1 秒間にデバイスに書き込まれる KB 数で、1 秒あたりのバックアップのスループットを予測するために使用できます。これは、VxVM5 ~ VxVM16 の KB/秒を加算することによって行えます。重複排除の作業負荷が 0% の場合、この合計は受け取ったキロバイト数に非常に近くなるはずです。つまり、ネットワーク統計表の bond0 の「in」列です。120 の同時 98% 重複排除バックアップストリームの実行中に上記の統計が取得されるため、wKB/秒はネットワークから受け取ったキロバイト数の 2% 近くになるはずです。単純な計算でステートメントを確認します。VxVM5 ~ VxVM16 の wKB/秒の合計は 12,097.1 KBで、ネットワーク統計表では bond0 の「in」列の値が 4,777,000KB 以下になります。2 つの数値の除算を行うと(12,091.1/4,777,000)、2.5% になります。言い換えると、このときにネットワークから受け取ったバックアップデータの 2.5% のみをディスクに書き込む必要があります。残りのデータは既存のデータの重複であり、再び書き込む必要がないためです。
一般的には、重複排除率の高いバックアップではあまり多くの I/O アクティビティが発生しないため、I/O のボトルネックが見つかる可能性が低くなります。上記の表では、デスク処理時間、svctm はほとんど 2 ミリ秒を下回り、ディスクのキューに 0 に近い値が表示され、ほとんどの場合、i/o、avgqu-sz、および %disk utilization が 5% を下回ります。これらのすべての統計が I/O はボトルネックではないことを示しています。ただし、上記の表で、VxVM8 のディスク利用率の %、svctm および await time にその他のボリュームよりもはるかに大きな値が表示されることがあります。この特別のボリュームの統計については心配する必要はありません。無視しても構いません。ただし、どのファイルシステムがボリュームに関連付けられているかに興味がある場合や、ボリュームについての詳細情報を検索するための十分なパフォーマンスが得られない場合、次の手順を実行して、VxVM8 がマッピングされているファイルシステムを見つけることができます。
コマンド ls - l /dev/vx/rdsk/nbuapp を実行して、デバイスのミラー数を識別します。
以下は上記のコマンドのサンプル出力です。列の数字は 6 です。「3 4 5 …12」はデバイスのミラー数で、数値の前に VxVM を追加すると、VxVM3、VxVM4、.. VxVM12 となります。これらは、表: サンプル I/O 統計(iostat - kxdt 5 で収集される) のサンプル iostat 出力の列 1 に表示されるデバイス名です。最後の列、1pdvol、2pdvol、… 9pdvol は、手順 2 で詳細なドリルダウンのために使用できる VxVM 仮想ボリューム名です。
crw-------
1
root
root
199,
3
Sep
28
16:12
pdvol
crw-------
1
root
root
199,
4
Sep
28
16:12
1pdvol
crw-------
1
root
root
199,
5
Sep
28
16:12
2pdvol
crw-------
1
root
root
199,
6
Sep
28
16:12
3pdvol
crw-------
1
root
root
199,
7
Sep
28
16:12
4pdvol
crw-------
1
root
root
199,
8
Sep
28
16:12
5pdvol
crw-------
1
root
root
199,
9
Sep
28
16:12
6pdvol
crw-------
1
root
root
199,
10
Sep
28
16:12
7pdvol
crw-------
1
root
root
199,
11
Sep
28
16:12
8pdvol
crw-------
1
root
root
199,
12
Sep
28
16:12
9pdvol
コマンド vxprint - ht を使用して、ボリュームに使用される LUN を識別します。このコマンドでは、各 pdvol に対して次のように出力されます。たとえば、ここでは対象とするボリュームが
5pdvol
に対応する VxVM8 です。次の出力では、5pdvol
がデバイスnbu_appliance0_29
に存在していると示されています。この出力では、5pdvol
がデバイス0_29
に存在していると示されています。0_29
の前にプレフィックスnbu_appliance
を付けると、完全なデバイス名(nbu_appliance0_29
)を取得できます。このデバイス名は手順 4 で vxdisk list コマンドのパラメータとして必要になります。v 5pdvol - ENABLED ACTIVE 82039901904 SELECT - fsgen pl 5pdvol-01 5pdvol ENABLED ACTIVE 82039901904 CONCAT - RW sd 50002974280F356058357-01 5pdvol-01 50008000011F356058357 0 82039901904 0 appl 0_29 ENA
コマンド「df - hT」を使用して、ボリューム
5pdvol
がマウントされるファイルシステムを特定します。このコマンドの出力では、5pdvol
に対応する次の情報が見つかるはずです。この出力では、5pdvol
がマウントポイント /msdp/data/dp1/5pdvol でマウントされ、ファイルシステムのサイズが 39TB であると示されています。Filesystem
形式
サイズ
使用済み (Used)
Avail
Use%
Mounted on
/dev/vx/dsk/nbuapp/5pdvol
vxfs
39T
1.6G
38T
1%
/msdp/data/dp1/5pdvol
コマンド vxdisk list nbu_appliance0_29 を使用して SCSI デバイス名を特定します。上記のコマンドによる出力の最後に、次の情報が表示されています。
sds
state=enabled
type=secondary
sdav
state=enabled
type=primary
sddb
state=enabled
type=primary
sdby
state=enabled
type=secondary
上記のデータは、VxVM8 に 4 つのパスが構成されており、そのうちの 2 つがアクティブで、2 つがパッシブであると示しています。iostat の出力では、VxVM8 の wKB/秒が sdav
と sddb
の wKB/秒の合計とほぼ同じになります。さらに、sdav と sddb の wKB/秒は非常に近い値になるはずです。これは、VxVM マルチパスデバイスドライバ、DMP によって提供される負荷分散メカニズムに由来します。