понедельник, 19 марта 2012 г.

EMC VNX5300. Часть 1. Начало

В силу своих функций, занимаюсь инсталяцией железа. Поставил уже несколько VNX5100/5300, а вот так что бы у меня этот массив в игрушках побывал - свершилось только сегодня.

Тем кому нужны какие-то ответы по массиву, или задачки надо проверить - добро пожаловать в комментарии, буду по мере возможности отвечать, пробовать.
Что планирую пробовать и замерять сам:
1. Работу FAST Cache vs FAST VP vs Flash HDD
2. Работу Thin Provision vs raid groups vs StoragePools
3. Update software под нагрузкой
4. Мультипасинг под нагрузкой


Массив пришел в составе:
VNX5300, два контроллера, только блочный доступ, 2 EFD 100GB, остальные 600ГБ SAS 10000 rpm.
ПО полностью весь комплект, можно пробовать разные вещи.

Собрать в стойку очень просто. Сначала батарейный блок (два модуля), сверху массив.
Умолчательные адреса на контроллерах 1.1.1.1 и 1.1.1.2.

Утилитка  Unisphere Storage Initialization под Windows 7 у  меня ни разу не сработала (не нашла ни одного массива даже в условиях одного хаба). Под XP работает и находит.

Поэтому простое решение - в одну сетку, браузером на адрес 1.1.1.1 и меняем адреса на нужные. ПОльзователя создайте в scope Global (sysadmin). По сути именно это и делает не рабочая у меня утилитка.

72 комментария:

Unknown комментирует...

Привет! Первый раз столкнулся с EMC VNX 5300.
Не подскажешь, что за хрень. Через
Installation assistaint нашел EMC настроил IP 172.16.202.52, пароли оставил по умолчанию. Нажал далее далее...Началась проверка..Ок..Ок..и во время проверки spA и spB написал, что они не пингуются. Закрыл ассистента решил заново настроить. Включаю ассистента, выбераю install.. пишет VNX not found..выбераю Configure..Nasadmin username пишу nasadmin...Nasadmin Password пишу nasadmin..в ответ получаю Autentication or communication with VNX failed...адрес через cmd пингуется...что делать теперь?

Александр комментирует...

https://IP_MANAGEMENT/setup
посмотри что там с адресами и рестарт management server

Unknown комментирует...

https://172.16.202.52_MANAGEMENT/setup

Пишет, что не может получить доступ к веб сайту. Или я неправильно ввел?

Александр комментирует...

https://172.16.202.52/setup

Unknown комментирует...

Веб-страница недоступна.
Но все по прежнему пингуется (

Александр комментирует...

Идея такова, что надо бы понять а есть ли сервис по данному адресу. Для чего я бы начал с проверки например telnet IP 80 и 443. Если ответ есть, то проверять возможности работы браузера по прямым адресам (если через прокси то выключить прокси). Если нет сервиса, то ставить пакет управления массивом через командную строку (CLI) , пытаться соединиться и управлять первично через CLI.

Александр комментирует...

если не получится этот вариант, то есть процедура управления через кабель, подключеный к массиву. Есть процедура, описанная генератором кстати.

Unknown комментирует...

порты телнетом проверил недоступны
Мне не понятно как так. Я оставил пароли по умолчанию, а говорит ошибка авторизации.
Через асистента уже ничего не сделать?

Александр комментирует...

Я ассистентом кстати никогда и не пользуюсь. Он почти никогда не находит массивов толком в сети клиента. По разным причинам. У массива есть вторая пара портов, где установлены адреса по умолчанию (в блоге поиском посмотри - есть). Цепляйся к ним кабелями, на своем ноуте выставляй адрес-маску из диапазона этих адресов и работай с ними уже.

Unknown комментирует...

Огромное спасибо сейчас попробую. Отпишусь

Unknown комментирует...

Привет! Получилось у меня подцепиться через https://IP_MANAGEMENT/setup просит логин и пароль. Какой он по умолчанию? Перерыл все не могу найти.

Александр комментирует...

попробуй sysadmin / sysadmin

Unknown комментирует...

Привет, Александр! На полку зашел.
Если не затруднит подскажи каков далее порядок действий чтобы подключить VNX 5300 по Fibre Chanel к серверу Windows 2008

Александр комментирует...

Эхе-хе...
ПОдключение правильное - через коммутаторы. 4 конца от массива и минимум два от сервера. Если нет коммутаторов, то напрямую можно сервер с массивом. Но тут выбирать надо. Если FC HBA в сервере имеют всего два порта, то для отказоустойчивости по одному проводу в каждый контроллер массива, если же надо производительность при большом количестве операций ввода-вывода - оба провода в один контроллер и именно этому контроллеру отдать тома для сервера что бы не было штрафников за передачу данных.
Лучше - два провода от сервера в один контроллер и два провода в другой контроллер. Балансировка у массива VNX только по портам одного контроллера - массив Active-Passive.
Поставь на винду агента (скачать можно с powerlink.emc.com, если доступ есть конечно). Установив агента будет легко сделать настройку.
Запускай UniSphere (браузером на https://IP_MANAGEMENT). Далее создавай пулы или рейд группы. Делай тома. Регистрируй клиента или если агента нет то вручную регистрируем сервер в списках WWN Initiators.
Далее создается Storage group, в которую помещаешь свой хост и тома, которые для него предназначены. На сервер делаешь скан и видишь свои тома. Надо будет также включить на сервере Multipathing, иначе каждый том будешь видеть дважды в виндах. Есть целый мануал на эту тему.

Если нет ни документации ни агента ни доступа на powerlink, дай знать, надо будет найти место куда тебе выложить файлы с документацией и агентов.

Unknown комментирует...

Александр, скинь пожалуйста агента куда удобно.
В Unisphere в разделе DashBoard такие вот ошибки...

1)SPS (Bus 0 Enclosure 0 SPS B) is faulted.
2)DPE (Bus 0 Enclosure 0) is faulted.
3)PS (Bus 0 Enclosure 0 Power A) is faulted.

Александр комментирует...

Вот ссылка для скачивания агента
https://support.emc.com/products/5921_Navisphere-Agents-CLI---Windows

Ошибки что видны, нужно понять и исправить. Проверь первым делом 3-ю ошибку - там скорее всего не подключен один из блоков питания. Остальные могут быть следствием этой

Александр комментирует...

Вот другая ссылка на более подходящий вариант агента
https://download.emc.com/downloads/DL30839_Unisphere-Host-Agent-(Windows-%C2%A0--all-supported-32-&-64-bit-versions)--1.2.25.1.0163.exe

Unknown комментирует...

Ошибка была потому, что питания не было на модуле. Пока все получается. Думаю какие рэйд группы делать.
Вопросик: на первых четырех дисках приклеена наклейка с надписью "removing or relocating them will make the array unusable". Означает ли это, что критичные данные нельзя хранить на этих дисках? Сама полка закуплена под базу данных. Мне нужно сделать два одинаковых луна под БД. Минимум каждый лун должен быть 1700 Gb и решено что в Raid5. В полке 15 дисков Sas 300gb(доступно 267Gb, на четырех из них наклейка. Вот теперь и думаю где взять этот объем. Могу ли я под БД отдать в т.ч. первые 4 диска с наклейкой? Если нет то почему?

Александр комментирует...

Первые 4-е диска у VNX как и CX от EMC - системные диски, с которых система занимает 192 ГБ на каждом из них. У тебя останется от них свободно порядка 100ГБ. Если ты включишь эти остатки в пул, то весь пул отравняется по минимуму и ты не получишь ничего хорошего по объему. Второе - производительность этих дисков практически не предсказуема, потому что система (Windows) работает используя именно эти 4-е диска. Общее правило такое - не использовать эти диски с другими дисками системы. Ты можешь создать маленький пул из этих 4-х дисков (остатков по месту) и использовать как файлопомойку.
Теперь далее. 15 дисков - 4 системных=11 дисков.
Небольшой экскурс в рейды. RAID5 - использует один диск четности. Великолепное решение для хранения и для работы приложений последовательного чтения и записи большими блоками - например видеозапись. СУБД же работает блоками 8к и характер доступа - random (случайный). И под этот тип нагрузки идеально подходит RAID1+0.
Отлично было бы сделать 10 дисков в RAID10 + 1 диск в Hot Spare. Еще лучше было бы купить два SSD диска + лицензию FAST Cache или FAST VP.
Тогда можно было бы сделать гибридный пул с автотирингом.
Но как я понял, места надо много (говорил про два тома 1700ГБ каждый) а это значит что RAID10 не справиться. RAID5 будет плох для операций записи. Кстати а зачем такие огромные тома? База будет на файловых системах? Каких? Какая ОС? Большие файловые системы при крахе будут долго восстанавливаться и чиниться. Если это Oracle, то было бы целесообразно использовать несколько томов меньшего размера и файлы базы разложить по точкам монтирования.
Еще рекомендую сделать отдельный том для REDO и ARCH логов, создать файловые системы с большим блоком - здесь будет отлично работать 5-й рейд на редо и архивах для Оракла.

Unknown комментирует...

Докупить сейчас уже нет возможности.
У меня в наличии:
два сервера HP Proliant DL380 gen8.
В каждом из них две FC карточки. Raid1 600Gb
Одна СХД EMC VNX5300 (HDD SAS 300Gb 15k 15шт) + доп полка (HDD NSAS 7k 1Tb 8шт)
Один FC комутатор HP Storage Works 8/8 SAN Switch

Планируется разделить СХД на две части с каждой из которых будет работать один сервер.
Один сервер боевой и резервный на который реплицируется БД. В случае отказа первого вводится в действие второй.
БД Oracle
В данный момент БД работает на стареньких серверах.
В каждом 6 дисков:
объем/свободно (Gb)
C: 34/5 - система
D: 302/240
F: 302/190
G: 302/230
H: 302/220
I: 465/253
Отсюда и 1700Gb
Файловая система NTFS
Windows 2008 Std

Так вот, Александр, исходя из этих параметров, что порекомендуешь? Дополнительная полка планировалась под другие цели

Александр комментирует...

Грустно... Но будет лучше чем сейчас это точно. Вариантов в такой постановке не особо вижу много. Я бы предложил сделать Pool, включить туда 10 дисков. 1 диск в Hot spare (это отдельный пул). На базе текущего пула создай два тома RAID5.... Третий пул сделал бы на остатках первой четверки дисков для файлопомойки.
Пожалуй пока все.

Unknown комментирует...

"1 диск в Hot spare (это отдельный пул)", что за отдельный пул? не понял..
Пул из 10 дисков на raid5? а оставшийся один в резерв?

Александр комментирует...

ага

Unknown комментирует...

Александр, привет! Рэйд группу с hot spare сделал. Как зарегистрировать сервер в Storage Groups?
Установил на сервер Unisphere server utility, он ничего не находит.
Агента которого ты рекомендуешь тоже, а дальше какие действия?

Unknown комментирует...

SOS
Не пойму как правильно прицепить хранилище к серверу. Через диспетчер для хранилища сетей SAN, инициатор ISCSI? Почему Unisphere server utility ничего не находит? Как взаимодействует VNX с агентом который ты посоветовал мне скачать? ПОЖАЛУЙСТА ПОДСКАЖИ ПОШАГОВО КАК ПОДКЛЮЧИТЬ ХРАНИЛИЩЕ К WIN2008 ЗАРАНЕЕ СПАСИБО!

Александр комментирует...

Костя, прости конечно, но это уже не корректно. Взять документ который так и называется Host Connectivity Guide for Windows и прочесть там все по шагам не сложно. Вопрос про FC или iSCSI меня даже в тупик поставил. Я теперь опасаюсь, что ты не понимаешь разницы по средам передачи, протоколам и так далее. Это может кончится тем, что сейчас все подключишь но не сможешь решить проблему, что возникнут со временем. Попробуй разобраться с протоколами, что не я ответил тебе а ты мне задал конкретный вопрос - например не получается подключить по FC сервер к массиву. Тот вопрос что ты задаешь, это вопрос к тебе - как ты хочешь работать по оптике или EThernet (и какой еще в этом случае 1 или 10 Гбит).
Агент, что посоветовал, устанавливается на хосте и просто помогает регистрировать хост в Unisphere, без него ты делаешь то же самое но более долго и сложно.

Unknown комментирует...

Александр, огромное спасибо за советы! По всем пунктам согласен! Впервые столкнулся и с оптикой и с СХД. Буду учить матчасть

Unknown комментирует...

Здравствуй, Александр! Извени, что снова беспокою тебя, жутко не удобно...
Прочитал документ "Attaching a Microsoft Windows Server 2008 Server with

EMC PowerPath to a VNX5300 in a Fibre Channel or a Boot from SAN Direct

Configuration"

У меня не получается зарегистрировать сервер на полке...
Делаю как написано в

инструкции, но на пункте 2(приведенного ниже фрагмента инструкции)

Unisphere Server Utility ничего не находит. Все провода перепроверял,

лампочки на разъемах под оптику горят.

Фрагмент инструкции:
Registering the server using the Unisphere Server Utility on a Windows
server
1. If the host agent is running, stop the host agent service.
2. In the Unisphere Server Utility dialog box, select Register this server

to all connected
systems.
The utility automatically scans for all connected systems and lists them

under connected
systems.
3. Locate the WWN of the HBA you just installed. The HBA should appear once

for every
SP port to which it is connected.
Note: If the Unisphere Server Utility does not list your storage

processors, verify that your server
is properly connected and zoned to the system ports.
4. Click Next to register the server with the system.
The utility sends the server’s name and WWN of the each HBA to each system.

Once the
server has storage on the system, the utility also sends the device name

and volume or
file system information for each LUN (virtual disk) in the system that the

server sees.
5. Click Finish to exit the utility.
6. If you stopped the host agent, restart it.

По агенту в мануале особо ничего нет. Только ...

Testing the host agent connections
Before continuing, you should test the host agent connections as follows:
1. Start the host agent as described in .
2. Look for any errors on the console and in the operating system log to

make sure the agent
started and no device errors occurred.
3. Verify that the host agent on the server can see the system as follows:
a. Enter the following CLI command: naviseccli |navicli [-d device]| -h

host
name port -list -hba
Note: You cannot specify both the –d switch and –h switch.
where
[-d device] is the device name for the system (only supported with legacy

systems).
-h hostname is the IP address of the SP.

Если честно я не понял каким образом взаимодействует полка с Хост Агентом и

чем он помогает в регистрации.

Александр, что можешь посоветовать по регистрации сервера на полке?

Александр комментирует...

Привет. Не тот мануал читаешь. Нужно взять с названием "EMC® Host Connectivity Guide for Windows"

Если кратко, то сначала нужно понять, все ли ты провода собрал правильно. Если сервер и массив соединил прямиком, то хотя бы сделай так, что два провода от сервера шли к массиву. Один провод в один контроллер а второй в другой контроллер.
Лучше (если количество портов у серверных FC HBA позволяет) если будет 4 а не два, тогда еще и балансировку сделаешь по очереди команд.
Если же сервер и массив соединяются через коммутаторы, то достаточно от сервера пару линков, от массива опять же лучше 4.
Если на коммутаторе зоны не делались (а по умолчанию так и есть и всем можно всех что плохо как по безопасности так и производительности - отдельная тема), то можно начинать работу.
Запускай Unisphere (не USM). Это то что ты получаешь когда браузером на адрес массива заходишь.

На массиве выбираешь свой массив из списка , идешь в раздел Hosts->Initiators. В этом списке ты должен увидеть WWN FC HBA своего сервера или серверов (если их больше чем один). Проверь что это именно они (на сервере можно посмотреть WWN, на коммутаторе можно посмотреть - SNS).
Если все правильно и ты видишь WWN своих адаптеров (портов адаптера), то на одном из них нажми и выбери Register. Заполни правильно поля.
Это создаст объект Host, который будет виден в списке хостов. Если выбрать твой хост в списке , то во второй нижней половине экрана (Details) будет окно, в котором есть вкладка initiators, в ней ты увидишь все свои порты сервера, которые подключены. Они должны быть зеленой галкой отмечены - активны и зарегистрированы. Если это не так с каким то из путей, надо поправить - выбирай путь, жми Edit внизу и в списке путей поставь крыжики на все свои пути -> Ok.
Все - у тебя правильный объект типа хост со всеми путями.

Далее делаешь рейд-группу или пул, в них делаешь том. Далее создаешь Storage Group, куда помещаешь свой объект Host и тома, которые нужно отдать этому серверу. Далее делаешь Refresh на устройствах виндов и получаешь новые устройства в виде дисков.
Если мультапасинг MPIO не настроен или вообще отсутствует, то каждый диск будет виден дважды. Это надо исправить настройкой MPIO.

Unknown комментирует...

Оказывается НВА Brocade не поддерживают Point-to-point соединений. Нужен коммутатор. Поэтому и не видет сервер полку...

Иван комментирует...

Цитата:
"Что планирую пробовать и замерять сам:
1. Работу FAST Cache vs FAST VP vs Flash HDD
2. Работу Thin Provision vs raid groups vs StoragePools
3. Update software под нагрузкой
4. Мультипасинг под нагрузкой"
-----------------------------
Есть ли какие-нибудь результаты?

Александр комментирует...

С конца:
4. Multipathing под нагрузкой работает как и положено варианту массива Active-Passive - балансировка нагрузки только между портами ОДНОГО контроллера. Потому рекомендованная схема подключения - 4-е конца от массива (по два с каждого контроллера). Тресспас отрабатывает в пределах scsi time out (под Solaris MPxIO).
3. Обновление массива под нагрузкой происходит дольше чем без нее что и понятно, ибо делаем тресспас и ждем, делаем и ждем. Проблем не выявлено, повторено много раз на боевых и тестовых.
2. SP vs RG - дело скорее политическое и вкусовое. SP (Storage Pool) когда создается, он внутри делает те же RG. Важно в пул положить верное количество дисков, что скрытые RG были сбалансированы по шпинделям. Я лично нахожу удобным и не увидел особенных просадок при использовании SP. В SP я могу добавить флешей и сделать тиринг (FAST VP лицензия нужна). Могу расширять пул и не морочиться с MetaLUN. Те кому нравится делать RG и зачем то знать где на каком диске лежит тот или иной файл SP покажутся ересью - но это дело вкуса к жизни. Важное замечание пожалуй - нужна 32-я прошивка, иначе столкнетесь с проблемой, когда после добавления новых дисков в SP старые данные не размажутся по всем шпинделям включая новые. В 32-й прошивке этот функционал сделали.
1. FAST Cache против FAST VP показал в моих тестах преимущество последнего по производительности. Но тут момент такой, что алгоритм FAST VP таков, что ранее через через сутки только будет результат. FAST Cache тот сразу делает свое дело, но работа флешей на запись оставляет все же желать лучшего. Да и ограничитель есть в моделях VNX на количество флешей в FAST Cache.

Фасхиев Рустем комментирует...

Александр, добрый день. Не могли бы выложить на какой-нибудь общедоступный ресурс последнюю версию UnisphereServerUtility? Те что я смог найти не поддерживают WIndows2012, а доступа на PowerLink у меня сейчас нет.

Александр комментирует...

USM наверное.
http://files.mail.ru/6EB87939445845FBB9E9A824B38F14D4
65 MB

Фасхиев Рустем комментирует...

За ServiceManager спасибо, но нужна именно все-таки ServerUtility, которая производит регистрацию хостов на СХД. Я знаю, что регистрацию можно произвести и руками (видел как это делал специалист от поставщика оборудования), но не знаю как именно это делается. А в мануалах с сайта EMC описывается регистрация только с помощью этой утилиты.

Александр комментирует...

у меня такой нет и я никогда ей не пользовался, регистрировать хост очень просто через юнисферу, зайти в initiators, увидеть свои WWN, выделить мышкой - сказать из меню что правой кнопкой - register - например так. Потом выбрать все WWN одного сервера и собрать в объект Host.

Фасхиев Рустем комментирует...

В том то и дело, что у нас WWN сами не появляются, их нужно прописывать руками или сделать автоматическую регистрацию с помощью этой утилиты. Видимо надо восстанавливать регистрацию на PowerLink.
В любом случае спасибо за помощь.

Alex комментирует...

Странно что wwn не появляется. Если есть идея ставить утилиту - значит сервер включен и стоит ОС, а следовательно wwn должен быть в Unisphere. Проверяйте зоны, скорее всего проблема со соединением.
Бывает что нужно ставить ОС на SAN-диск, т.е. выдать LUN до того как установлена ОС, но и то сервер можно включить, зайти в биос HBA и wwn будет виден с СХД.

Alex комментирует...
Этот комментарий был удален автором.
Александр комментирует...

По шагам цепочки как бы я проходил (а wwn просто там быть обязан):
1. Сервер имеет FC HBA, драйверы в ОС установлены.
2. Корды зацеплены от FC HBA сервера к FC коммутатору
3. Лампочки на адаптерах не моргают а горят одним цветом (либо зеленый либо оранжевый) но не двумя сразу.
4. На коммутаторах порт в состоянии (по лампочке хотя бы ) соединения (зеленый на брокейде например но главное что-бы горела).
5. Далее заходим на коммутаторы и смотрим состояние портов. Проще всего если это веб-морда смотреть SNS - там видно много всего и сразу. Если порт, куда включен сервер (а номер порта вы знаете, начинается счет с нуля) то в строчке с номером этого порта будут данные об имени адаптера, типе порта, и типе соединения - должно быть Initiator. На портах куда включен массив должны быть тип Target.
6. Порты коммутатора должны быть активны и разрешены лицензией - проверить состояние портов на коммутаторах.
7. На ОС проверить состояние путей (на солярис смотрите тут http://kino505.blogspot.ru/2012/03/1.html), на линукс - поиском по блогу где то было.
8. И если все 7 пунктов есть то массив обязательно увидит ваши wwn в закладках Initiators и никаких утилит применять не надо лишних.

Андрей комментирует...

Господа, интересует стоимость настройки VNX5300? можно в попугаях т.е. от - до.

Александр комментирует...
Этот комментарий был удален автором.
Александр комментирует...

Да как сказать не зная что делать и сколько и где и когда. Ночью в Москве массив на 100 дисков и куча томов, подключений - одна цена, массив на 6 дисков с прямым подключением - другая.

Андрей комментирует...

Могу выслать на почту спецификацию оборудования

Александр комментирует...

Андрей, а город какой? Ну или шлите с названием города. Буквы в адресе конечно не русские - кино пятьсот пять собачка гымайл ком

Александр комментирует...

только сначала тестовое письмо присылайте для проверки связи

Анонимный комментирует...

Добрый день. Зарегистрировался на сайте .emc.com, все заполнил. При попытке скачать обновления для VNX 5300 стоит замочек, с чем это связано, как убрать. Еще интересует момент 5300 пришла настроенной, подскажите, как сменить ip адреса на CS и SP....алгоритм действий. Спасибо.

Александр комментирует...

Одно время прошивки были доступны всем. Теперь уже не всем. Через дистрибутора или сапорт и с моей точки зрения это правильно даже. Особенно, если система стоит на поддержке. Актуальная версия 215 сейчас.

Адрес сменить можно многими способами. Попробуйте так: http://IP/setup

Кирилл комментирует...

Как я понимаю, полки расширения у 5300 хотсваповые и подключение новых дополнительных полок можно производить не останавливая работу системы. Голова определит новые полки/диски автоматом и можно их организовывать в группы. Верно?

Александр комментирует...

Да всё верно. Важно разве что соблюсти процедуру подключения новой полки. Для этого есть процедур генератор эдакий, ну или документация.

Кирилл комментирует...

Про процедуру можно подробнее ?
Да и от ссылки на документацию я бы не отказался.

Александр комментирует...

Я часть системы к сожалению, а система запрещает выдачу того, что она может продать :(( У вас наверняка куплен массив с поддержкой. Ваш продавец при продаже полки должен дать человека для установки полки. У дистрибуторов и партнеров есть ПО VNXPG - генератор процедур. Ссылка на документацию работать не будет - она под авторизацией (я говорю про maintenance manual).

Кирилл комментирует...

Странно. У IBM и НР нет ничего подобного.Подключил полку на горячую и всё работает.
Если не противоречит чему-то, опишите, в чём состоит процедура подключения полки и зачем этот генератор? Без него вообще никак?

Александр комментирует...

Наверное, не так я объяснил, раз понято именно так. Полку к VNX как и везде подключают - SAS есть SAS и ничего необычного нет и не отличается от других. Процедур генератор - это ПО которое по указанию модели массива и нужной операции (подключение полки, замена диска и так далее) просто генерирует PDF с описание как и что делать по шагам. А полку подключайте как везде. Главное с портами не перепутаться - только и всего:)

Кирилл комментирует...

Если не сложно, давайте перейдём в почту ( не привычны мне эти пкбличные обсуждения/блоги). Есть ещё пара вопросов.
Черкните на ldk_s(@) mail.ru

Вячеслав комментирует...

Выручайте, плиз.
нужен naviseccli под линукс.
реги на ЕМС нет и не хочет он меня регистрировать. Мой рабочий адрес не считает за коммерческий.
а без этой приблуды не могу VNX Family Monitoring and Reporting на VNX5300 натровить.

Unknown комментирует...

Здравствуйте.
После физического переезда VNX5300 и IBM Blade не поднимается полноценно VNX5300.
Какие проблемы я смог обнаружить:

1) Pool 0 - offline (An error occurred while accessing the Storage Pool. Please resolve any hardware problems and retry the operation. (0x712D8514))
Пул 0 не поднимается, хотя ни каких видимых проблем нету. Новый пул
создается (из свободных винтов) и работает нормально.
2) Can't Assign - Cache Dirty
Постоянно сыпятся на обоих SP эти ошибки. (SPA : диски 0 и 4; SPB : диск 0)
3) У всех hosts "Connection status - Active", а "Status - Faulted"
У нас 5 хостов:
- Control Stantion
- 4 лезвия блейда IBM
4) Постоянно "Fibre Channel loop down/up on physical port " в логах SP.
Постоянно идет переподключение (DPE и DME) по оптике (fibre). Пробовал разные схемы подключения, ничего не помогает.

С данной системой начал работать только 3 недели назад, где найти логи на Data Mover (DME) не пойму

Stils комментирует...

Здравствуйте, спасибо за подробные статьи.
У меня к вам вопрос - у нас проблема web-консоль VNXe не пингуется по сети и не доступна по старому адресу, пытался через arp найти новый ip который она получила - не вышло. Диски на ней работают нормально, не можем подключиться к управлению. Пробовал подключиться через нуль модемный кабель по вашей статье - пишет модем не отвечает. Подскажите пожалуйста как можно узнать новый ip адрес. Утилита connect utility тоже не находит схд.

Александр комментирует...

День добрый.
Есть обходной стандартный манёвр. У VNX есть вторые порты на контроллерах. Они могут быть закрыты заглушкой. Посмотрите сзади, увидите. В этот порт можно подключить ноут кроссом например. Особенность этих портов в том, что там фиксированные адреса - 128.221.1.250 и 251. Маска 255.255.255.248. Их изменить нельзя зато можно соединиться к ним и увидеть остальные адреса на твоих портах, а так же изменить адреса на нужные и правильные. Не делайте DHCP!

Stils комментирует...

Огромное спасибо за оперативный ответ! В итоге сделали сброс - сзади ткнули в отверстие, и все заработало.
А соединиться по http с адресами 128.221.1.250 и 251 ?

Александр комментирует...

можно: https://IP/setup
маску не забудьте правильную установить.

Stils комментирует...

Спасибо!

Unknown комментирует...

Добрый день! Подскажите, можно ли каким-нибудь образом восстановить пароль на хранилище VNX5100(настраивалось хранилище другим администратором). Возможно ли это?

Александр комментирует...

Здравствуйте. ЧТо бы не пересказывать сказанное :
https://community.emc.com/message/818609

Unknown комментирует...

Спасибо, буду пробовать....

Unknown комментирует...

Уважаемый Александр, очень надеюсь на Ваш ответ. VNX5300 некоторые LUN в офлайн статусе и массив не видно. Как их активировать ? Если можно я бы хотел проконсультироваться с Вами по skype․ Спасибо большое.

Руслан комментирует...

Александр, столкнулся с такой проблемой на VNX5300. 3(Третий диск, который заклеен наклейкой) загорелась желтая лампочка, статус Removed. Подскажите пожалуйста мануал где описана процедура замены этих дисков, или эти диски меняются так же как и все остальные? Заранее благодарен.

Анонимный комментирует...

Добрый день! нужна помощь по EMC VNX5100. Как вывести lun из состояния offline

После Включения VNX5100 ошибка на одном из LUNs

An error occurred while accessing the Storage Pool. Please resolve any hardware problems and retry the operation. (0x712D8514)



magesh комментирует...

Hi Alexander,
Our VNX5300 some Private LUN in the offline status and the array is not visible. How do I delete!, please share us if you have come across this issue.

Thank You!
-Magesh

Анонимный комментирует...

Здравствуйте!
Остался EMC VNX5300 с блейд сервером в наследство на работе.
Скажите пожалуйста как его правильно отключать?

Unknown комментирует...

Покупаю старые массивы, EMC, HP, IBM... а так же блейды, сервера, коммутацию тел 951859292девять. Можно ватсапп писать на оценку списки.

Анонимный комментирует...

Выключатель есть в Унисфере и в консоли
Если выключить неправильно, потребуется рекавери)