Note the above creates a cifs share in the qtree called cifs-share at the location /vol/cifs1/cifs-share
NetApp Show CIFS Shares
We can confirm the above CIFS share have been created, by entering:
NetApp Show CIFS Shares
1234567891011
netapp> cifs shares
Name Mount Point Description
---- ----------- -----------
ETC$ /etc Remote Administration
BUILTIN\Administrators / Full Control
HOME /vol/vol0/home Default Share
everyone / Full Control
C$ / Remote Administration
BUILTIN\Administrators / Full Control
Share /vol/cifs1/cifs-share
everyone / Full Control
Good day! Dear readers and guests of one of the major blogs on system administration Pyatilistnik.org. Last time I told you how to configure a Mikrotik router in a small office. Today we will talk about: Netapp Show RAID Configuration, reconstruction information. This command displays Netapp RAID setup and rebuild status and other information such as spare disks. I am sure that there will be colleagues who are faced with such a task for the first time and he has a number of questions.
Добрый день! Уважаемые читатели и гости IT блога Pyatilistnik.org. Сейчас уже у многих компаний есть какая-никакая система хранения данных, у меня, это FAS 2200. Идет время и самая изнашиваемая деталь СХД, начинает выходить из строя. Сегодня речь пойдет, о процессе замены жесткого диска на FAS 2200. Использую в работе СХД NetApp. Настроен AutoSupport. Вышли из строя два диска со статусом failed disk / broken disk. Диски на СХД подсвечены красным огоньком.
Встала задача обновить blade корзину из 14 штук в плане прошивок и все такое, все обновились нормально кроме одного. Пробовал обновлять автоматическим диском, не получилось обновил вручную. Думаю ну все хорошо, но как обычно мелкософт поднасрал. При загрузке блейда я увидел подготовка автоматического восстановления и белый ползунок
Ошибка подготовка автоматического восстановления в windows server 2012R2
Возникла необходимость подключить новые диски в новой дисковой полке к СХД NetApp. В обычном стандартном случае всё впорядке и всё делается само и легко.
В моём случае полка уже ранее использовалась и её диски ранее принадлежали другому контроллеру.
Я знал команду priv set advanced - вход в расширеный режим disk reassign -s sysid старой системы -d sysid новой системы Например: disk reassign -s 1574384110 -d 1873909642
Не так давно меня как-то спросили - какая СХД нужна для бекапов с копированием 20 ТБ данных ежедневно, за небольшое окно резервного копирования? Вроде бы задача не сложная. Я ответил что подойдут почти все Low-End массивы, но всё же решил проверить взяв на тестирование СХД E5412 с 12 дисками NL-SAS 3ТБ.
Основная сложность в расчёте производительности СХД - это справится ли контроллер. Что справятся жёсткие диски сомнения нет, тем более что производительность SAS и NL-SAS дисков при последовательных операциях ввода-вывода отличается минимально.
Т.к. у меня был под рукой калькулятор расчёт производительность для NetApp E5412 (https://eseries-sizer.netapp.com/), то встала задача стоит ли верить цифрам которые он выдаёт.
Калькулятор при расчёта заданной конфигурации примерно выдаёт 873 МБ/с.
Конфигурация полигона:
Физический сервер:
Cisco B200M3
ОЗУ 64 ГБ
Boot From iSCSI (LUN расположен на FAS3240) с этого диска копировали файл.
При проведении тестирования у одного из Заказчиков была замечена одна проблем: На тестовой системе с Cluster Data ONTAP приехавшей на тестирование была подключена дисковая полка с агрегатом созданным из 7-mode. Всё бы ничего, но удалить данный аггрегат командой строки как Cluster Shell так и Node Shell невозможно. В Cluster Shell выдаёт ошибку Error: command failed: Aggregate "aggr1_sata1t" does not exist. В Node Shell по умолчанию попросту нет команды delete или destroy. В Maintaince mode аггрегат не виден.
Решить проблему можно следующим способом - добавить опцию destroy в Node Shell.
system node run -node options nodescope.reenabledcmds "aggr=destroy" aggr destroy options nodescope.reenabledcmds ""
затем проверяем: что агрегат удалился - "aggr show"