Часть 5. CX4-120. EFD vs FC. Часть 5 - Стенд 5xEFD RAID5, Solaris,ZFS
Часть 1. Описание. Массив CX4-120. EFD (Flash), FC. UFS/ZFS
Часть 2. CX4-120. EFD vs FC. Часть 2 - Стенд 10xFC RAID10, Solaris, RAW
Часть 3. CX4-120. EFD vs FC. Часть 3 - Стенд 10xFC RAID10, Solaris,UFS
Часть 4. CX4-120. EFD vs FC. Часть 4 - Стенд 5xEFD RAID5, Solaris,RAW, UFS
Стенд был перестроен на работу с ZFS. Параметры ZFS:
ssd_big/db1 type filesystem -
ssd_big/db1 creation Tue Nov 3 17:34 2009 -
ssd_big/db1 used 218G -
ssd_big/db1 available 14.3G -
ssd_big/db1 referenced 218G -
ssd_big/db1 compressratio 1.00x -
ssd_big/db1 mounted yes -
ssd_big/db1 quota none default
ssd_big/db1 reservation none default
ssd_big/db1 recordsize 8K local
ssd_big/db1 mountpoint /ssd_big/db1 default
ssd_big/db1 sharenfs off default
ssd_big/db1 checksum on default
ssd_big/db1 compression off default
ssd_big/db1 atime off local
ssd_big/db1 devices on default
ssd_big/db1 exec on default
ssd_big/db1 setuid on default
ssd_big/db1 readonly off default
ssd_big/db1 zoned off default
ssd_big/db1 snapdir hidden default
ssd_big/db1 aclmode groupmask default
ssd_big/db1 aclinherit secure default
ssd_big/db1 canmount on default
ssd_big/db1 shareiscsi off default
ssd_big/db1 xattr on default
1. Первый тест на чтение 100 файлов по 1 ГБ каждый в 100 потоков. Сначала эти файлы создаём (первые строки будут как раз об этом) а уж потом только читаем.
fsd=fsd1,anchor=/ssd_big/db1/fs1,depth=1,width=1,files=100,size=1g fwd=fwd1,fsd=fsd1,xfersize=8k,fileio=random,fileselect=random,operation=read,threads=100
rd=rd1,fwd=fwd1,fwdrate=max,format=yes,elapsed=900,interval=1
Vdbench:

IOSTAT: (правда тут только часть на чтение)

SWAT:







2. 10 больших файлов (10 ГБ каждый) и 15 потоков. 80/20 (чтение/запись)
sd=sd1,lun=/ssd_big/db1/fs2/file_1
sd=sd2,lun=/ssd_big/db1/fs2/file_2
sd=sd3,lun=/ssd_big/db1/fs2/file_3
sd=sd4,lun=/ssd_big/db1/fs2/file_4
sd=sd5,lun=/ssd_big/db1/fs2/file_5
sd=sd6,lun=/ssd_big/db1/fs2/file_6
sd=sd7,lun=/ssd_big/db1/fs2/file_7
sd=sd8,lun=/ssd_big/db1/fs2/file_8
sd=sd9,lun=/ssd_big/db1/fs2/file_9
sd=sd10,lun=/ssd_big/db1/fs2/file_10
wd=rg-1,sd=sd*,rdpct=80,rhpct=0,whpct=0,xfersize=8k,seekpct=80
rd=rd_rg-1,wd=rg-1,interval=1,iorate=max,elapsed=900,forthreads=(15)
KSTAT:
kstat zfs:0:arcstats:size
module: zfs instance: 0
name: arcstats class: misc
size 3020269568
zpool iostat:
pool used avail read write read write
---------- ----- ----- ----- ----- ----- -----
ssd_big 134G 102G 106 15 1.15M 1.77M
ssd_big 134G 102G 4.24K 303 99.5M 22.5M
ssd_big 134G 102G 3.56K 145 87.0M 11.0M
ssd_big 134G 102G 7.63K 29 180M 493K
ssd_big 134G 102G 7.76K 12 177M 59.9K
ssd_big 134G 102G 6.62K 23 159M 2.88M
IOSTAT:

Vdbench:

SWAT:






3. 100 файлов по 1ГБ каждый, 8кб блок и 100 потоков (80% чтение, 20% запись)
sd=sd*,lun=/ssd_big/db1/fs3/file_*,count=(1,100)
wd=rg-1,sd=sd*,rdpct=80,rhpct=0,whpct=0,xfersize=8k,seekpct=80
rd=rd_rg-1,wd=rg-1,interval=1,iorate=max,elapsed=900,forthreads=(100)
KSTAT:
kstat zfs:0:arcstats:size
module: zfs instance: 0
name: arcstats class: misc
size 2420348928
ZPOOL IOSTAT:
capacity operations bandwidth
pool used avail read write read write
---------- ----- ----- ----- ----- ----- -----
ssd_big 114G 122G 2.98K 502 38.8M 39.3M
ssd_big 114G 122G 9.53K 290 85.6M 27.4M
ssd_big 114G 122G 9.56K 284 88.5M 30.1M
ssd_big 114G 122G 9.71K 285 86.9M 30.2M
ssd_big 114G 122G 10.7K 313 94.5M 27.2M
ssd_big 114G 122G 11.4K 271 99.4M 24.5M
ssd_big 114G 122G 9.34K 277 83.1M 29.3M
Vdbench:

SWAT:






Navisphere:



Комментариев нет:
Отправить комментарий