вторник, 8 декабря 2009 г.

CX4-120. EFD vs FC. Часть 4 - Стенд 5xEFD RAID5, Solaris,RAW, UFS

Часть 4. CX4-120. EFD vs FC. Часть 4 - Стенд 5xEFD RAID5, Solaris,RAW, UFS

Часть 1. Описание. Массив CX4-120. EFD (Flash), FC. UFS/ZFS
Часть 2. CX4-120. EFD vs FC. Часть 2 - Стенд 10xFC RAID10, Solaris, RAW
Часть 3. CX4-120. EFD vs FC. Часть 3 - Стенд 10xFC RAID10, Solaris,UFS
Часть 5. CX4-120. EFD vs FC. Часть 5 - Стенд 5xEFD RAID5, Solaris,ZFS

Стенд собран с дисками EFD (FLASH) 73GB в RAID5. Эти устройства оптимизированы для случайного чтения и я ожидаю от них прорыв именно в тестах на чтение. С записью... Ну видно будет на графиках. Кэш на массиве ОТКЛЮЧЕН на все операции.

1. Без файловой системы. 64 потока блоками 8к. Чтение - 80%.
Sd=sd1,lun=/dev/rdsk/c3t600601600B10230068A759006BC8DE11d0s0,threads=64
Wd=wd1,sd=sd1,xfersize=8k,rdpct=80,seekpct=random
rd=run1,wd=wd1,iorate=max,elapsed=900,interval=1

IOSTAT:

Vdbench:

NaviSphere:

SWAT:




2. Файловая системы UFS на том устройстве, что участвовало в предыдущем стенде как RAW.
Вот такой тест:
fsd=fsd1,anchor=/u/fs1,depth=1,width=1,files=100,size=1g fwd=fwd1,fsd=fsd1,xfersize=8k,fileio=random,fileselect=random,operation=read,threads=100 rd=rd1,fwd=fwd1,fwdrate=max,format=yes,elapsed=900,interval=1
Здесь замечу, стоит параметр format=yes. То есть тест сначала создаёт эти файлы (я намеренно включил это и в статистику). Сначала создаём 100 файлов по 1 ГБ, а потом в 100 потоков читаем случайно. Первые строки результатов как раз показывают процесс создания, а потом уже чтение...
Результаты с NaviSphere не привожу. Как показала практика, они совпадают с Vdbench.
Vdbench:

IOSTAT:

SWAT:




3. Вот такой тест:
sd=sd1,lun=/u/fs2/file_1
sd=sd2,lun=/u/fs2/file_2
sd=sd3,lun=/u/fs2/file_3
sd=sd4,lun=/u/fs2/file_4

sd=sd5,lun=/u/fs2/file_5

sd=sd6,lun=/u/fs2/file_6

sd=sd7,lun=/u/fs2/file_7

sd=sd8,lun=/u/fs2/file_8

sd=sd9,lun=/u/fs2/file_9

sd=sd10,lun=/u/fs2/file_10

wd=rg-1,sd=sd*,rdpct=80,rhpct=0,whpct=0,xfersize=8k,seekpct=80

rd=rd_rg-1,wd=rg-1,interval=1,iorate=max,elapsed=900,forthreads=(15)

То есть 10 файлов по 10 ГБ каждый, 15 потоков, чтение - 80%.
IOSTAT:

KDB:
> ::memstat
Page Summary Pages MB %Tot
------------ ---------------- ---------------- ----
Kernel 112288 877 11%
Anon 70906 553 7%
Exec and libs 2570 20 0%
Page cache 786029 6140 76%
Free (cachelist) 13467 105 1%
Free (freelist) 42798 334 4%

Total 1028058 8031
Physical 982315 7674

Vdbench:

NaviSphere:


SWAT:


4. Следующий тест по сути такой же как предыдущий. 10 больших файлов (10ГБ каждый) и 200 потоков 8кб блоками 80/20:
sd=sd1,lun=/ssd_big/db1/fs2/file_1 sd=sd2,lun=/ssd_big/db1/fs2/file_2 sd=sd3,lun=/ssd_big/db1/fs2/file_3 sd=sd4,lun=/ssd_big/db1/fs2/file_4 sd=sd5,lun=/ssd_big/db1/fs2/file_5 sd=sd6,lun=/ssd_big/db1/fs2/file_6 sd=sd7,lun=/ssd_big/db1/fs2/file_7 sd=sd8,lun=/ssd_big/db1/fs2/file_8 sd=sd9,lun=/ssd_big/db1/fs2/file_9 sd=sd10,lun=/ssd_big/db1/fs2/file_10
wd=rg-1,sd=sd*,rdpct=80,rhpct=0,whpct=0,xfersize=8k,seekpct=80

rd=rd_rg-1,wd=rg-1,interval=1,iorate=max,elapsed=300,forthreads=(200)

Vdbench:


5. То же самое, но 500 потоков.
Vdbench:

SWAT:


6. А теперь только чтение:
wd=rg-1,sd=sd*,rdpct=100,rhpct=0,whpct=0,xfersize=8k,seekpct=100
rd=rd_rg-1,wd=rg-1,interval=1,iorate=max,elapsed=300,forthreads=(500)
Vdbench:

SWAT:


IOSTAT:


7. А теперь с тем же набором файлов но ТОЛЬКО запись:
wd=rg-1,sd=sd*,rdpct=0,rhpct=0,whpct=0,xfersize=8k,seekpct=0 rd=rd_rg-1,wd=rg-1,interval=1,iorate=max,elapsed=300,forthreads=(100)
IOSTAT:

Vdbench:

SWAT:


Продолжение следует...

Комментариев нет: