понедельник, 30 июля 2012 г.

IBM Storwize. Заметки

IP адреса на сервисных портах по умолчанию: 192.168.70.121 и 122 /24
User: superuser, password: passw0rd

Документация для старта: http://pic.dhe.ibm.com/infocenter/storwize/ic/index.jsp

В комплекте с железкой идет флешка. На ней два файла InitTool.exe и autorun.inf.
Флешку втыкаем в ноут, запускаем InitTool. Оно запросит IP адрес (я вводил сервисные умолчательные). Давим Finish. Был создан текстовый файл satask.txt. В нем одна строка с адресом, шлюзом и маской. Далее вставляем флешку в USB порт на массиве (любой из 4-х сзади). Начинает моргать оранжевый индикатор со знаком !

При инициализации лучше выбрать тип системы Unified, ибо если сделать только блочную инициализацию а потом когда захочется использовать файловый функционал, то придётся разрушать кластер и создавать его заново.


Удалить кластерную конфигурацию можно только переведя канистры в сервисный режим. Более того , надо удалить имя старого кластера (Configure Enclosure).

45 дней дается на демо и нигде не проверяется. Этим можно пользоваться без завода ключей. Но при заводе заявки в сервис это будет выяснено.

Лицензирование делается по количеству полок. External Virtualization - это количество полок на внешних массивах. Именно полок.

Для мультипассинга под винды и аикс - нужно ставить драйверы SDD.
Для остальных ОС работают родные.

На каждом диске резервируется 512 МБ кусок при инициализации для нужд кворума. Для кворум предпочтение отдается дискам Spare. Но место резервируется на всех дисках. 

io_group - группа из двух головных устройств - то есть два контроллера, что входят в состав массива.

Система не является Active-Active. Драйвер мультипасинга работает по алгоритму round-robin. И это накладывает следующее разумное объяснение - минимум ДВА FC порта с КАЖДОГО контроллера должно быть подключено.
То есть именно по этим двум путям к одному контроллеру и будет отработан round-robin а ни как на оба контроллера.

Надо понять так же систему распределения нагрузки по дискам. Помним, что есть верхняя сущность - VDISK (Volume), которая суть набор неких Extents. Каждый Extent это ссылка на Mdisk (хоть внешний хоть внутренний). Размер Extent-а от 16 МБ до 8 ГБ. По сути это определяет объем который может быть доступен для управления массивом. Это зашито в прошивке - 4 млн extents на систему. Механизм отработки понятен - блок данных пришел в массив, собрался в кэше (может быть), и далее будет записан в текущий Extent (пока не заполнится) со страйпом на Mdisk (а страйп у нас по умолчанию 256 Кб и есть еще второй вариант - 128 Кб и все). Если VDisk сделан на базе Storage Pool, в который входят несколько Mdisk , то extent будет записываться на один MDisk пока не заполнится, после чего переключится на следующий Mdisk. 

Storage Pool по умолчанию собирается в режиме страйпа.

ЦПУ в массиве 4-х ядерные, и оптимально нагружать в 4 потока. 1 поток обрабатывается одним ядром. 

Кэш тут работает по "честному" - всем поровну. Кусок кэша выделяется каждому Storage Pool. Не регулируется. На контроллере 8 ГБ кэша, в сумме 16 ГБ, зеркалируется только кэш на запись. Кэш так же используется и для хранения сумм CRC для рейдов (если используются).
Кэш на запись и чтение не могут быть выключены. При создании нового пула, кэш тут же распределится в пропорциях , особенно забавно что для продакшн системы (если она была до этого) мы уменьшим размер кэша при этом.

Статья по производительности от одного из разработчиков - ТУТ.


iSCSI крайне ограничен. Не поддерживаются VLAN, нет бондов и порт 1Гб...
Надо глянуть нет ли расширения iSCSI в версии Unified. Репликации нет по iSCSI, Volume Mirror - нет.

В одну систему можно добавить в сумме 10 полок (одна из них это голова).
Причем из-за особенностей строения SAS на первую цепь - 5 полок, на вторую - 4.






Комментариев нет: