IO系统性能之三:在Linux中监视IO性能(zz)

swency 2011-09-18

from:http://www.dbabeta.com/2009/io-performence-03_check-performence-in-linux.html

dd命令

dd其实是工作于比较低层的一个数据拷贝和转换的*nix平台的工具,但是因为dd命令支持*nix平台的一些特殊设备,因此我们可以利用dd命令的这个特性来简单的测试磁盘的性能。

先说一下两个相关的特殊设备

/dev/null

空设备,通常用作输出设备,这个是*nix系统上面的黑洞,所有送到这个空设备上的内容都会凭空消失。

/dev/zero

空字符,通常用作输入,从/dev/zero中读取时,它能源源不断的提供空字符(ASCIINUL,0×00)出来,要多少有多少。

于是就有了下面的用法:

测试磁盘的写入

/usr/bin/timeddif=/dev/zeroof=/tmp/foobs=4kcount=1024000

这个命令时往磁盘的文件/tmp/foo中写入一个4G大小的文件,当然文件的内容全部是空字符了,同时用/usr/bin/time来对命令的执行进行计时,命令中的bs指的是写入文件时的块大小,其实就相当于Oracle中的block大小了,count是写入的块数。采取这种方法来写入数据时只是测试的连续读磁盘的性能,而不是随机读的性能,不能采取这种方法检查一个机器的IOPS的,只能检查磁盘的吞吐率。

测试磁盘的读取

/usr/bin/timeddif=/tmp/fooof=/dev/nullbs=4k

上面的命令是从/tmp/foo文件中读取数据,然后扔掉,这里bs用的是读取时块的大小。和上面写入的命令一样,这样测试的仅仅是最大的读取性能,而不是随机IO的性能。

还能读写同时测试

/usr/bin/timeddif=/tmp/fooof=/tmp/foo2bs=4k

在上面的命令中都用到了time命令对操作进行计时,这样才能正确的进行判断。要记住的一点是dd命令只能够提供一个大概的测试,通过这个简单的命令可以对磁盘系统的最大性能有一个大概的了解,要了解更详细的信息还要通过其他方法来查看。

topiostat命令

top理解iostat的各项输出

在Linux中,我们执行一个iostat-x命令,我们能看到如下的输出

$iostat-x

Linux2.4.21-50a6smp(linux)11/03/2009

avg-cpu:%user%nice%sys%iowait%idle

0.420.000.260.4798.86

Device:rrqm/swrqm/sr/sw/srsec/swsec/srkB/swkB/savgrq-szavgqu-szawaitsvctm%util

hdc0.010.000.000.000.070.000.030.0024.480.004.904.570.00

hda0.898.540.744.4912.60104.226.3052.1122.320.035.411.010.53

我们先列举一下各个性能指标的简单说明。

rrqm/s

每秒进行merge的读操作数目。

wrqm/s

每秒进行merge的写操作数目。

r/s

每秒完成的读I/O设备次数。

w/s

每秒完成的写I/O设备次数。

rsec/s

每秒读扇区数。

wsec/s

每秒写扇区数。

rkB/s

每秒读K字节数。

wkB/s

每秒写K字节数。

avgrq-sz

平均每次设备I/O操作的数据大小(扇区)。

avgqu-sz

平均I/O队列长度。

await

平均每次设备I/O操作的等待时间(毫秒)。

svctm

平均每次设备I/O操作的服务时间(毫秒)。

%util

一秒中有百分之多少的时间用于I/O操作,或者说一秒中有多少时间I/O队列是非空的。

要理解这些性能指标我们先看下图

IO的执行过程的各个参数

上图的左边是iostat显示的各个性能指标,每个性能指标都会显示在一条虚线之上,这表明这个性能指标是从虚线之上的那个读写阶段开始计量的,比如说图中的w/s从LinuxIOscheduler开始穿过硬盘控制器(CCIS/3ware),这就表明w/s统计的是每秒钟从LinuxIOscheduler通过硬盘控制器的写IO的数量。

结合上图对读IO操作的过程做一个说明,在从OSBufferCache传入到OSKernel(LinuxIOscheduler)的读IO操作的个数实际上是rrqm/s+r/s,直到读IO请求到达OSKernel层之后,有每秒钟有rrqm/s个读IO操作被合并,最终转送给磁盘控制器的每秒钟读IO的个数为r/w;在进入到操作系统的设备层(/dev/sda)之后,计数器开始对IO操作进行计时,最终的计算结果表现是await,这个值就是我们要的IO响应时间了;svctm是在IO操作进入到磁盘控制器之后直到磁盘控制器返回结果所花费的时间,这是一个实际IO操作所花的时间,当await与svctm相差很大的时候,我们就要注意磁盘的IO性能了;而avgrq-sz是从OSKernel往下传递请求时单个IO的大小,avgqu-sz则是在OSKernel中IO请求队列的平均大小。

现在我们可以将iostat输出结果和我们前面讨论的指标挂钩了。

平均单次IO大小(IOChunkSize)<=>avgrq-sz

平均IO响应时间(IOResponseTime)<=>await

IOPS(IOperSecond)<=>r/s+w/s

吞吐率(Throughtput)<=>rkB/s+wkB/s

topiostat的应用实例

top观察IOScheduler的IO合并(IOMerge)

前面说过IO在执行过程中会被合并以提高效率,下面就结合dd命令和iostat命令看一下。

我们先执行dd命令,设置bs参数值为1k,完整命令如下

ddif=/dev/zeroof=testbs=1kcount=1024000

同时打开另外一个终端执行iostat命令,这里只查看变化那个磁盘的更改,每秒刷新一次数据,完整命令如下

iostat-xhdc71

然后我们可以得到下面的结果

Device:rrqm/swrqm/sr/sw/srsec/swsec/srkB/swkB/savgrq-szavgqu-szawaitsvctm%util

hdc70.009447.000.00776.000.0080616.000.0040308.00103.89480.18805.951.29100.00

avg-cpu:%user%nice%sys%iowait%idle

0.500.0056.0043.500.00

Device:rrqm/swrqm/sr/sw/srsec/swsec/srkB/swkB/savgrq-szavgqu-szawaitsvctm%util

hdc70.009534.000.00872.000.0081384.000.0040692.0093.33274.56401.191.1499.00

avg-cpu:%user%nice%sys%iowait%idle

2.500.0046.5014.0037.00

Device:rrqm/swrqm/sr/sw/srsec/swsec/srkB/swkB/savgrq-szavgqu-szawaitsvctm%util

hdc70.006766.001.00276.008.0058808.004.0029404.00212.33197.27321.661.9554.00

avg-cpu:%user%nice%sys%iowait%idle

0.500.000.500.0099.00

看结果中第一组数据中的avgrq-sz,为103.89个扇区,磁盘的每个扇区为512字节,因此平均IO大小为103.89*512/1024=52k字节,远远大于我们dd命令时给定的参数1k字节,也就是说IO在中间被合并了。看巨大的wrqm/s也能得出同样的结论。

top附:在Windows中监视IO性能

本来准备写一篇windows中监视IO性能的,后来发现好像可写的内容不多,windows在细节这方面做的不是那么的好,不过那些基本信息还是有的。

在Windows中监视性能基本都用性能监视器了,与IO性能相关的有两个大类,一个是”LogicalDisk”,另外一个是”PhysicalDisk”,”LogicalDisk”更多的是用来监视文件相关的IO性能,而”PhysicalDisk”则是用来监视LUN或者是磁盘卷,下面就列举下与前面所列举的IO性能相关的计数器,具体的自己研究了:

单次IO大小

Avg.DiskBytes/Read

Avg.DiskBytes/Write

IO响应时间

Avg.Disksec/Read

Avg.Disksec/Write

IOPS

DiskReads/sec

DiskWrites/sec

DiskTransfers/sec

IO吞吐率

DiskBytes/sec

DiskReadBytes/sec

DiskWriteBytes/sec

top延伸阅读

time命令

dd(Unix)

LearnTheddCommand

iostat详解

linux下的sar工具命令小结

相关推荐