В силу своих функций, занимаюсь инсталяцией железа. Поставил уже несколько VNX5100/5300, а вот так что бы у меня этот массив в игрушках побывал - свершилось только сегодня.
Тем кому нужны какие-то ответы по массиву, или задачки надо проверить - добро пожаловать в комментарии, буду по мере возможности отвечать, пробовать.
Что планирую пробовать и замерять сам:
1. Работу FAST Cache vs FAST VP vs Flash HDD
2. Работу Thin Provision vs raid groups vs StoragePools
3. Update software под нагрузкой
4. Мультипасинг под нагрузкой
Массив пришел в составе:
VNX5300, два контроллера, только блочный доступ, 2 EFD 100GB, остальные 600ГБ SAS 10000 rpm.
ПО полностью весь комплект, можно пробовать разные вещи.
Собрать в стойку очень просто. Сначала батарейный блок (два модуля), сверху массив.
Умолчательные адреса на контроллерах 1.1.1.1 и 1.1.1.2.
Утилитка Unisphere Storage Initialization под Windows 7 у меня ни разу не сработала (не нашла ни одного массива даже в условиях одного хаба). Под XP работает и находит.
Поэтому простое решение - в одну сетку, браузером на адрес 1.1.1.1 и меняем адреса на нужные. ПОльзователя создайте в scope Global (sysadmin). По сути именно это и делает не рабочая у меня утилитка.
Тем кому нужны какие-то ответы по массиву, или задачки надо проверить - добро пожаловать в комментарии, буду по мере возможности отвечать, пробовать.
Что планирую пробовать и замерять сам:
1. Работу FAST Cache vs FAST VP vs Flash HDD
2. Работу Thin Provision vs raid groups vs StoragePools
3. Update software под нагрузкой
4. Мультипасинг под нагрузкой
Массив пришел в составе:
VNX5300, два контроллера, только блочный доступ, 2 EFD 100GB, остальные 600ГБ SAS 10000 rpm.
ПО полностью весь комплект, можно пробовать разные вещи.
Собрать в стойку очень просто. Сначала батарейный блок (два модуля), сверху массив.
Умолчательные адреса на контроллерах 1.1.1.1 и 1.1.1.2.
Утилитка Unisphere Storage Initialization под Windows 7 у меня ни разу не сработала (не нашла ни одного массива даже в условиях одного хаба). Под XP работает и находит.
Поэтому простое решение - в одну сетку, браузером на адрес 1.1.1.1 и меняем адреса на нужные. ПОльзователя создайте в scope Global (sysadmin). По сути именно это и делает не рабочая у меня утилитка.
72 комментария:
Привет! Первый раз столкнулся с EMC VNX 5300.
Не подскажешь, что за хрень. Через
Installation assistaint нашел EMC настроил IP 172.16.202.52, пароли оставил по умолчанию. Нажал далее далее...Началась проверка..Ок..Ок..и во время проверки spA и spB написал, что они не пингуются. Закрыл ассистента решил заново настроить. Включаю ассистента, выбераю install.. пишет VNX not found..выбераю Configure..Nasadmin username пишу nasadmin...Nasadmin Password пишу nasadmin..в ответ получаю Autentication or communication with VNX failed...адрес через cmd пингуется...что делать теперь?
https://IP_MANAGEMENT/setup
посмотри что там с адресами и рестарт management server
https://172.16.202.52_MANAGEMENT/setup
Пишет, что не может получить доступ к веб сайту. Или я неправильно ввел?
https://172.16.202.52/setup
Веб-страница недоступна.
Но все по прежнему пингуется (
Идея такова, что надо бы понять а есть ли сервис по данному адресу. Для чего я бы начал с проверки например telnet IP 80 и 443. Если ответ есть, то проверять возможности работы браузера по прямым адресам (если через прокси то выключить прокси). Если нет сервиса, то ставить пакет управления массивом через командную строку (CLI) , пытаться соединиться и управлять первично через CLI.
если не получится этот вариант, то есть процедура управления через кабель, подключеный к массиву. Есть процедура, описанная генератором кстати.
порты телнетом проверил недоступны
Мне не понятно как так. Я оставил пароли по умолчанию, а говорит ошибка авторизации.
Через асистента уже ничего не сделать?
Я ассистентом кстати никогда и не пользуюсь. Он почти никогда не находит массивов толком в сети клиента. По разным причинам. У массива есть вторая пара портов, где установлены адреса по умолчанию (в блоге поиском посмотри - есть). Цепляйся к ним кабелями, на своем ноуте выставляй адрес-маску из диапазона этих адресов и работай с ними уже.
Огромное спасибо сейчас попробую. Отпишусь
Привет! Получилось у меня подцепиться через https://IP_MANAGEMENT/setup просит логин и пароль. Какой он по умолчанию? Перерыл все не могу найти.
попробуй sysadmin / sysadmin
Привет, Александр! На полку зашел.
Если не затруднит подскажи каков далее порядок действий чтобы подключить VNX 5300 по Fibre Chanel к серверу Windows 2008
Эхе-хе...
ПОдключение правильное - через коммутаторы. 4 конца от массива и минимум два от сервера. Если нет коммутаторов, то напрямую можно сервер с массивом. Но тут выбирать надо. Если FC HBA в сервере имеют всего два порта, то для отказоустойчивости по одному проводу в каждый контроллер массива, если же надо производительность при большом количестве операций ввода-вывода - оба провода в один контроллер и именно этому контроллеру отдать тома для сервера что бы не было штрафников за передачу данных.
Лучше - два провода от сервера в один контроллер и два провода в другой контроллер. Балансировка у массива VNX только по портам одного контроллера - массив Active-Passive.
Поставь на винду агента (скачать можно с powerlink.emc.com, если доступ есть конечно). Установив агента будет легко сделать настройку.
Запускай UniSphere (браузером на https://IP_MANAGEMENT). Далее создавай пулы или рейд группы. Делай тома. Регистрируй клиента или если агента нет то вручную регистрируем сервер в списках WWN Initiators.
Далее создается Storage group, в которую помещаешь свой хост и тома, которые для него предназначены. На сервер делаешь скан и видишь свои тома. Надо будет также включить на сервере Multipathing, иначе каждый том будешь видеть дважды в виндах. Есть целый мануал на эту тему.
Если нет ни документации ни агента ни доступа на powerlink, дай знать, надо будет найти место куда тебе выложить файлы с документацией и агентов.
Александр, скинь пожалуйста агента куда удобно.
В Unisphere в разделе DashBoard такие вот ошибки...
1)SPS (Bus 0 Enclosure 0 SPS B) is faulted.
2)DPE (Bus 0 Enclosure 0) is faulted.
3)PS (Bus 0 Enclosure 0 Power A) is faulted.
Вот ссылка для скачивания агента
https://support.emc.com/products/5921_Navisphere-Agents-CLI---Windows
Ошибки что видны, нужно понять и исправить. Проверь первым делом 3-ю ошибку - там скорее всего не подключен один из блоков питания. Остальные могут быть следствием этой
Вот другая ссылка на более подходящий вариант агента
https://download.emc.com/downloads/DL30839_Unisphere-Host-Agent-(Windows-%C2%A0--all-supported-32-&-64-bit-versions)--1.2.25.1.0163.exe
Ошибка была потому, что питания не было на модуле. Пока все получается. Думаю какие рэйд группы делать.
Вопросик: на первых четырех дисках приклеена наклейка с надписью "removing or relocating them will make the array unusable". Означает ли это, что критичные данные нельзя хранить на этих дисках? Сама полка закуплена под базу данных. Мне нужно сделать два одинаковых луна под БД. Минимум каждый лун должен быть 1700 Gb и решено что в Raid5. В полке 15 дисков Sas 300gb(доступно 267Gb, на четырех из них наклейка. Вот теперь и думаю где взять этот объем. Могу ли я под БД отдать в т.ч. первые 4 диска с наклейкой? Если нет то почему?
Первые 4-е диска у VNX как и CX от EMC - системные диски, с которых система занимает 192 ГБ на каждом из них. У тебя останется от них свободно порядка 100ГБ. Если ты включишь эти остатки в пул, то весь пул отравняется по минимуму и ты не получишь ничего хорошего по объему. Второе - производительность этих дисков практически не предсказуема, потому что система (Windows) работает используя именно эти 4-е диска. Общее правило такое - не использовать эти диски с другими дисками системы. Ты можешь создать маленький пул из этих 4-х дисков (остатков по месту) и использовать как файлопомойку.
Теперь далее. 15 дисков - 4 системных=11 дисков.
Небольшой экскурс в рейды. RAID5 - использует один диск четности. Великолепное решение для хранения и для работы приложений последовательного чтения и записи большими блоками - например видеозапись. СУБД же работает блоками 8к и характер доступа - random (случайный). И под этот тип нагрузки идеально подходит RAID1+0.
Отлично было бы сделать 10 дисков в RAID10 + 1 диск в Hot Spare. Еще лучше было бы купить два SSD диска + лицензию FAST Cache или FAST VP.
Тогда можно было бы сделать гибридный пул с автотирингом.
Но как я понял, места надо много (говорил про два тома 1700ГБ каждый) а это значит что RAID10 не справиться. RAID5 будет плох для операций записи. Кстати а зачем такие огромные тома? База будет на файловых системах? Каких? Какая ОС? Большие файловые системы при крахе будут долго восстанавливаться и чиниться. Если это Oracle, то было бы целесообразно использовать несколько томов меньшего размера и файлы базы разложить по точкам монтирования.
Еще рекомендую сделать отдельный том для REDO и ARCH логов, создать файловые системы с большим блоком - здесь будет отлично работать 5-й рейд на редо и архивах для Оракла.
Докупить сейчас уже нет возможности.
У меня в наличии:
два сервера HP Proliant DL380 gen8.
В каждом из них две FC карточки. Raid1 600Gb
Одна СХД EMC VNX5300 (HDD SAS 300Gb 15k 15шт) + доп полка (HDD NSAS 7k 1Tb 8шт)
Один FC комутатор HP Storage Works 8/8 SAN Switch
Планируется разделить СХД на две части с каждой из которых будет работать один сервер.
Один сервер боевой и резервный на который реплицируется БД. В случае отказа первого вводится в действие второй.
БД Oracle
В данный момент БД работает на стареньких серверах.
В каждом 6 дисков:
объем/свободно (Gb)
C: 34/5 - система
D: 302/240
F: 302/190
G: 302/230
H: 302/220
I: 465/253
Отсюда и 1700Gb
Файловая система NTFS
Windows 2008 Std
Так вот, Александр, исходя из этих параметров, что порекомендуешь? Дополнительная полка планировалась под другие цели
Грустно... Но будет лучше чем сейчас это точно. Вариантов в такой постановке не особо вижу много. Я бы предложил сделать Pool, включить туда 10 дисков. 1 диск в Hot spare (это отдельный пул). На базе текущего пула создай два тома RAID5.... Третий пул сделал бы на остатках первой четверки дисков для файлопомойки.
Пожалуй пока все.
"1 диск в Hot spare (это отдельный пул)", что за отдельный пул? не понял..
Пул из 10 дисков на raid5? а оставшийся один в резерв?
ага
Александр, привет! Рэйд группу с hot spare сделал. Как зарегистрировать сервер в Storage Groups?
Установил на сервер Unisphere server utility, он ничего не находит.
Агента которого ты рекомендуешь тоже, а дальше какие действия?
SOS
Не пойму как правильно прицепить хранилище к серверу. Через диспетчер для хранилища сетей SAN, инициатор ISCSI? Почему Unisphere server utility ничего не находит? Как взаимодействует VNX с агентом который ты посоветовал мне скачать? ПОЖАЛУЙСТА ПОДСКАЖИ ПОШАГОВО КАК ПОДКЛЮЧИТЬ ХРАНИЛИЩЕ К WIN2008 ЗАРАНЕЕ СПАСИБО!
Костя, прости конечно, но это уже не корректно. Взять документ который так и называется Host Connectivity Guide for Windows и прочесть там все по шагам не сложно. Вопрос про FC или iSCSI меня даже в тупик поставил. Я теперь опасаюсь, что ты не понимаешь разницы по средам передачи, протоколам и так далее. Это может кончится тем, что сейчас все подключишь но не сможешь решить проблему, что возникнут со временем. Попробуй разобраться с протоколами, что не я ответил тебе а ты мне задал конкретный вопрос - например не получается подключить по FC сервер к массиву. Тот вопрос что ты задаешь, это вопрос к тебе - как ты хочешь работать по оптике или EThernet (и какой еще в этом случае 1 или 10 Гбит).
Агент, что посоветовал, устанавливается на хосте и просто помогает регистрировать хост в Unisphere, без него ты делаешь то же самое но более долго и сложно.
Александр, огромное спасибо за советы! По всем пунктам согласен! Впервые столкнулся и с оптикой и с СХД. Буду учить матчасть
Здравствуй, Александр! Извени, что снова беспокою тебя, жутко не удобно...
Прочитал документ "Attaching a Microsoft Windows Server 2008 Server with
EMC PowerPath to a VNX5300 in a Fibre Channel or a Boot from SAN Direct
Configuration"
У меня не получается зарегистрировать сервер на полке...
Делаю как написано в
инструкции, но на пункте 2(приведенного ниже фрагмента инструкции)
Unisphere Server Utility ничего не находит. Все провода перепроверял,
лампочки на разъемах под оптику горят.
Фрагмент инструкции:
Registering the server using the Unisphere Server Utility on a Windows
server
1. If the host agent is running, stop the host agent service.
2. In the Unisphere Server Utility dialog box, select Register this server
to all connected
systems.
The utility automatically scans for all connected systems and lists them
under connected
systems.
3. Locate the WWN of the HBA you just installed. The HBA should appear once
for every
SP port to which it is connected.
Note: If the Unisphere Server Utility does not list your storage
processors, verify that your server
is properly connected and zoned to the system ports.
4. Click Next to register the server with the system.
The utility sends the server’s name and WWN of the each HBA to each system.
Once the
server has storage on the system, the utility also sends the device name
and volume or
file system information for each LUN (virtual disk) in the system that the
server sees.
5. Click Finish to exit the utility.
6. If you stopped the host agent, restart it.
По агенту в мануале особо ничего нет. Только ...
Testing the host agent connections
Before continuing, you should test the host agent connections as follows:
1. Start the host agent as described in .
2. Look for any errors on the console and in the operating system log to
make sure the agent
started and no device errors occurred.
3. Verify that the host agent on the server can see the system as follows:
a. Enter the following CLI command: naviseccli |navicli [-d device]| -h
host
name port -list -hba
Note: You cannot specify both the –d switch and –h switch.
where
[-d device] is the device name for the system (only supported with legacy
systems).
-h hostname is the IP address of the SP.
Если честно я не понял каким образом взаимодействует полка с Хост Агентом и
чем он помогает в регистрации.
Александр, что можешь посоветовать по регистрации сервера на полке?
Привет. Не тот мануал читаешь. Нужно взять с названием "EMC® Host Connectivity Guide for Windows"
Если кратко, то сначала нужно понять, все ли ты провода собрал правильно. Если сервер и массив соединил прямиком, то хотя бы сделай так, что два провода от сервера шли к массиву. Один провод в один контроллер а второй в другой контроллер.
Лучше (если количество портов у серверных FC HBA позволяет) если будет 4 а не два, тогда еще и балансировку сделаешь по очереди команд.
Если же сервер и массив соединяются через коммутаторы, то достаточно от сервера пару линков, от массива опять же лучше 4.
Если на коммутаторе зоны не делались (а по умолчанию так и есть и всем можно всех что плохо как по безопасности так и производительности - отдельная тема), то можно начинать работу.
Запускай Unisphere (не USM). Это то что ты получаешь когда браузером на адрес массива заходишь.
На массиве выбираешь свой массив из списка , идешь в раздел Hosts->Initiators. В этом списке ты должен увидеть WWN FC HBA своего сервера или серверов (если их больше чем один). Проверь что это именно они (на сервере можно посмотреть WWN, на коммутаторе можно посмотреть - SNS).
Если все правильно и ты видишь WWN своих адаптеров (портов адаптера), то на одном из них нажми и выбери Register. Заполни правильно поля.
Это создаст объект Host, который будет виден в списке хостов. Если выбрать твой хост в списке , то во второй нижней половине экрана (Details) будет окно, в котором есть вкладка initiators, в ней ты увидишь все свои порты сервера, которые подключены. Они должны быть зеленой галкой отмечены - активны и зарегистрированы. Если это не так с каким то из путей, надо поправить - выбирай путь, жми Edit внизу и в списке путей поставь крыжики на все свои пути -> Ok.
Все - у тебя правильный объект типа хост со всеми путями.
Далее делаешь рейд-группу или пул, в них делаешь том. Далее создаешь Storage Group, куда помещаешь свой объект Host и тома, которые нужно отдать этому серверу. Далее делаешь Refresh на устройствах виндов и получаешь новые устройства в виде дисков.
Если мультапасинг MPIO не настроен или вообще отсутствует, то каждый диск будет виден дважды. Это надо исправить настройкой MPIO.
Оказывается НВА Brocade не поддерживают Point-to-point соединений. Нужен коммутатор. Поэтому и не видет сервер полку...
Цитата:
"Что планирую пробовать и замерять сам:
1. Работу FAST Cache vs FAST VP vs Flash HDD
2. Работу Thin Provision vs raid groups vs StoragePools
3. Update software под нагрузкой
4. Мультипасинг под нагрузкой"
-----------------------------
Есть ли какие-нибудь результаты?
С конца:
4. Multipathing под нагрузкой работает как и положено варианту массива Active-Passive - балансировка нагрузки только между портами ОДНОГО контроллера. Потому рекомендованная схема подключения - 4-е конца от массива (по два с каждого контроллера). Тресспас отрабатывает в пределах scsi time out (под Solaris MPxIO).
3. Обновление массива под нагрузкой происходит дольше чем без нее что и понятно, ибо делаем тресспас и ждем, делаем и ждем. Проблем не выявлено, повторено много раз на боевых и тестовых.
2. SP vs RG - дело скорее политическое и вкусовое. SP (Storage Pool) когда создается, он внутри делает те же RG. Важно в пул положить верное количество дисков, что скрытые RG были сбалансированы по шпинделям. Я лично нахожу удобным и не увидел особенных просадок при использовании SP. В SP я могу добавить флешей и сделать тиринг (FAST VP лицензия нужна). Могу расширять пул и не морочиться с MetaLUN. Те кому нравится делать RG и зачем то знать где на каком диске лежит тот или иной файл SP покажутся ересью - но это дело вкуса к жизни. Важное замечание пожалуй - нужна 32-я прошивка, иначе столкнетесь с проблемой, когда после добавления новых дисков в SP старые данные не размажутся по всем шпинделям включая новые. В 32-й прошивке этот функционал сделали.
1. FAST Cache против FAST VP показал в моих тестах преимущество последнего по производительности. Но тут момент такой, что алгоритм FAST VP таков, что ранее через через сутки только будет результат. FAST Cache тот сразу делает свое дело, но работа флешей на запись оставляет все же желать лучшего. Да и ограничитель есть в моделях VNX на количество флешей в FAST Cache.
Александр, добрый день. Не могли бы выложить на какой-нибудь общедоступный ресурс последнюю версию UnisphereServerUtility? Те что я смог найти не поддерживают WIndows2012, а доступа на PowerLink у меня сейчас нет.
USM наверное.
http://files.mail.ru/6EB87939445845FBB9E9A824B38F14D4
65 MB
За ServiceManager спасибо, но нужна именно все-таки ServerUtility, которая производит регистрацию хостов на СХД. Я знаю, что регистрацию можно произвести и руками (видел как это делал специалист от поставщика оборудования), но не знаю как именно это делается. А в мануалах с сайта EMC описывается регистрация только с помощью этой утилиты.
у меня такой нет и я никогда ей не пользовался, регистрировать хост очень просто через юнисферу, зайти в initiators, увидеть свои WWN, выделить мышкой - сказать из меню что правой кнопкой - register - например так. Потом выбрать все WWN одного сервера и собрать в объект Host.
В том то и дело, что у нас WWN сами не появляются, их нужно прописывать руками или сделать автоматическую регистрацию с помощью этой утилиты. Видимо надо восстанавливать регистрацию на PowerLink.
В любом случае спасибо за помощь.
Странно что wwn не появляется. Если есть идея ставить утилиту - значит сервер включен и стоит ОС, а следовательно wwn должен быть в Unisphere. Проверяйте зоны, скорее всего проблема со соединением.
Бывает что нужно ставить ОС на SAN-диск, т.е. выдать LUN до того как установлена ОС, но и то сервер можно включить, зайти в биос HBA и wwn будет виден с СХД.
По шагам цепочки как бы я проходил (а wwn просто там быть обязан):
1. Сервер имеет FC HBA, драйверы в ОС установлены.
2. Корды зацеплены от FC HBA сервера к FC коммутатору
3. Лампочки на адаптерах не моргают а горят одним цветом (либо зеленый либо оранжевый) но не двумя сразу.
4. На коммутаторах порт в состоянии (по лампочке хотя бы ) соединения (зеленый на брокейде например но главное что-бы горела).
5. Далее заходим на коммутаторы и смотрим состояние портов. Проще всего если это веб-морда смотреть SNS - там видно много всего и сразу. Если порт, куда включен сервер (а номер порта вы знаете, начинается счет с нуля) то в строчке с номером этого порта будут данные об имени адаптера, типе порта, и типе соединения - должно быть Initiator. На портах куда включен массив должны быть тип Target.
6. Порты коммутатора должны быть активны и разрешены лицензией - проверить состояние портов на коммутаторах.
7. На ОС проверить состояние путей (на солярис смотрите тут http://kino505.blogspot.ru/2012/03/1.html), на линукс - поиском по блогу где то было.
8. И если все 7 пунктов есть то массив обязательно увидит ваши wwn в закладках Initiators и никаких утилит применять не надо лишних.
Господа, интересует стоимость настройки VNX5300? можно в попугаях т.е. от - до.
Да как сказать не зная что делать и сколько и где и когда. Ночью в Москве массив на 100 дисков и куча томов, подключений - одна цена, массив на 6 дисков с прямым подключением - другая.
Могу выслать на почту спецификацию оборудования
Андрей, а город какой? Ну или шлите с названием города. Буквы в адресе конечно не русские - кино пятьсот пять собачка гымайл ком
только сначала тестовое письмо присылайте для проверки связи
Добрый день. Зарегистрировался на сайте .emc.com, все заполнил. При попытке скачать обновления для VNX 5300 стоит замочек, с чем это связано, как убрать. Еще интересует момент 5300 пришла настроенной, подскажите, как сменить ip адреса на CS и SP....алгоритм действий. Спасибо.
Одно время прошивки были доступны всем. Теперь уже не всем. Через дистрибутора или сапорт и с моей точки зрения это правильно даже. Особенно, если система стоит на поддержке. Актуальная версия 215 сейчас.
Адрес сменить можно многими способами. Попробуйте так: http://IP/setup
Как я понимаю, полки расширения у 5300 хотсваповые и подключение новых дополнительных полок можно производить не останавливая работу системы. Голова определит новые полки/диски автоматом и можно их организовывать в группы. Верно?
Да всё верно. Важно разве что соблюсти процедуру подключения новой полки. Для этого есть процедур генератор эдакий, ну или документация.
Про процедуру можно подробнее ?
Да и от ссылки на документацию я бы не отказался.
Я часть системы к сожалению, а система запрещает выдачу того, что она может продать :(( У вас наверняка куплен массив с поддержкой. Ваш продавец при продаже полки должен дать человека для установки полки. У дистрибуторов и партнеров есть ПО VNXPG - генератор процедур. Ссылка на документацию работать не будет - она под авторизацией (я говорю про maintenance manual).
Странно. У IBM и НР нет ничего подобного.Подключил полку на горячую и всё работает.
Если не противоречит чему-то, опишите, в чём состоит процедура подключения полки и зачем этот генератор? Без него вообще никак?
Наверное, не так я объяснил, раз понято именно так. Полку к VNX как и везде подключают - SAS есть SAS и ничего необычного нет и не отличается от других. Процедур генератор - это ПО которое по указанию модели массива и нужной операции (подключение полки, замена диска и так далее) просто генерирует PDF с описание как и что делать по шагам. А полку подключайте как везде. Главное с портами не перепутаться - только и всего:)
Если не сложно, давайте перейдём в почту ( не привычны мне эти пкбличные обсуждения/блоги). Есть ещё пара вопросов.
Черкните на ldk_s(@) mail.ru
Выручайте, плиз.
нужен naviseccli под линукс.
реги на ЕМС нет и не хочет он меня регистрировать. Мой рабочий адрес не считает за коммерческий.
а без этой приблуды не могу VNX Family Monitoring and Reporting на VNX5300 натровить.
Здравствуйте.
После физического переезда VNX5300 и IBM Blade не поднимается полноценно VNX5300.
Какие проблемы я смог обнаружить:
1) Pool 0 - offline (An error occurred while accessing the Storage Pool. Please resolve any hardware problems and retry the operation. (0x712D8514))
Пул 0 не поднимается, хотя ни каких видимых проблем нету. Новый пул
создается (из свободных винтов) и работает нормально.
2) Can't Assign - Cache Dirty
Постоянно сыпятся на обоих SP эти ошибки. (SPA : диски 0 и 4; SPB : диск 0)
3) У всех hosts "Connection status - Active", а "Status - Faulted"
У нас 5 хостов:
- Control Stantion
- 4 лезвия блейда IBM
4) Постоянно "Fibre Channel loop down/up on physical port " в логах SP.
Постоянно идет переподключение (DPE и DME) по оптике (fibre). Пробовал разные схемы подключения, ничего не помогает.
С данной системой начал работать только 3 недели назад, где найти логи на Data Mover (DME) не пойму
Здравствуйте, спасибо за подробные статьи.
У меня к вам вопрос - у нас проблема web-консоль VNXe не пингуется по сети и не доступна по старому адресу, пытался через arp найти новый ip который она получила - не вышло. Диски на ней работают нормально, не можем подключиться к управлению. Пробовал подключиться через нуль модемный кабель по вашей статье - пишет модем не отвечает. Подскажите пожалуйста как можно узнать новый ip адрес. Утилита connect utility тоже не находит схд.
День добрый.
Есть обходной стандартный манёвр. У VNX есть вторые порты на контроллерах. Они могут быть закрыты заглушкой. Посмотрите сзади, увидите. В этот порт можно подключить ноут кроссом например. Особенность этих портов в том, что там фиксированные адреса - 128.221.1.250 и 251. Маска 255.255.255.248. Их изменить нельзя зато можно соединиться к ним и увидеть остальные адреса на твоих портах, а так же изменить адреса на нужные и правильные. Не делайте DHCP!
Огромное спасибо за оперативный ответ! В итоге сделали сброс - сзади ткнули в отверстие, и все заработало.
А соединиться по http с адресами 128.221.1.250 и 251 ?
можно: https://IP/setup
маску не забудьте правильную установить.
Спасибо!
Добрый день! Подскажите, можно ли каким-нибудь образом восстановить пароль на хранилище VNX5100(настраивалось хранилище другим администратором). Возможно ли это?
Здравствуйте. ЧТо бы не пересказывать сказанное :
https://community.emc.com/message/818609
Спасибо, буду пробовать....
Уважаемый Александр, очень надеюсь на Ваш ответ. VNX5300 некоторые LUN в офлайн статусе и массив не видно. Как их активировать ? Если можно я бы хотел проконсультироваться с Вами по skype․ Спасибо большое.
Александр, столкнулся с такой проблемой на VNX5300. 3(Третий диск, который заклеен наклейкой) загорелась желтая лампочка, статус Removed. Подскажите пожалуйста мануал где описана процедура замены этих дисков, или эти диски меняются так же как и все остальные? Заранее благодарен.
Добрый день! нужна помощь по EMC VNX5100. Как вывести lun из состояния offline
После Включения VNX5100 ошибка на одном из LUNs
An error occurred while accessing the Storage Pool. Please resolve any hardware problems and retry the operation. (0x712D8514)
Hi Alexander,
Our VNX5300 some Private LUN in the offline status and the array is not visible. How do I delete!, please share us if you have come across this issue.
Thank You!
-Magesh
Здравствуйте!
Остался EMC VNX5300 с блейд сервером в наследство на работе.
Скажите пожалуйста как его правильно отключать?
Покупаю старые массивы, EMC, HP, IBM... а так же блейды, сервера, коммутацию тел 951859292девять. Можно ватсапп писать на оценку списки.
Выключатель есть в Унисфере и в консоли
Если выключить неправильно, потребуется рекавери)
Отправить комментарий