Note the above creates a cifs share in the qtree called cifs-share at the location /vol/cifs1/cifs-share
NetApp Show CIFS Shares
We can confirm the above CIFS share have been created, by entering:
NetApp Show CIFS Shares
1234567891011
netapp> cifs shares
Name Mount Point Description
---- ----------- -----------
ETC$ /etc Remote Administration
BUILTIN\Administrators / Full Control
HOME /vol/vol0/home Default Share
everyone / Full Control
C$ / Remote Administration
BUILTIN\Administrators / Full Control
Share /vol/cifs1/cifs-share
everyone / Full Control
Good day! Dear readers and guests of one of the major blogs on system administration Pyatilistnik.org. Last time I told you how to configure a Mikrotik router in a small office. Today we will talk about: Netapp Show RAID Configuration, reconstruction information. This command displays Netapp RAID setup and rebuild status and other information such as spare disks. I am sure that there will be colleagues who are faced with such a task for the first time and he has a number of questions.
Добрый день! Уважаемые читатели и гости IT блога Pyatilistnik.org. Сейчас уже у многих компаний есть какая-никакая система хранения данных, у меня, это FAS 2200. Идет время и самая изнашиваемая деталь СХД, начинает выходить из строя. Сегодня речь пойдет, о процессе замены жесткого диска на FAS 2200. Использую в работе СХД NetApp. Настроен AutoSupport. Вышли из строя два диска со статусом failed disk / broken disk. Диски на СХД подсвечены красным огоньком.
Встала задача обновить blade корзину из 14 штук в плане прошивок и все такое, все обновились нормально кроме одного. Пробовал обновлять автоматическим диском, не получилось обновил вручную. Думаю ну все хорошо, но как обычно мелкософт поднасрал. При загрузке блейда я увидел подготовка автоматического восстановления и белый ползунок
На одном из проектов на СХД NetApp понадобилось перенести загрузочный том vol0 контроллера c одного aggregate (aggr) на другой, новый aggregate. Создаем новый aggregate (aggr1). Можно из графики можно командой aggr add Создаем новый том vol1. Можно из графики можно командой vol add Далее копируем содержимое каталога etc на новый том командой ndmpcopy /vol/vol0/etc /vol/vol1 Делаем новый том загрузочным vol options vol1 root
Возникла необходимость подключить новые диски в новой дисковой полке к СХД NetApp. В обычном стандартном случае всё впорядке и всё делается само и легко. В моём случае полка уже ранее использовалась и её диски ранее принадлежали другому контроллеру. Я знал команду priv set advanced - вход в расширеный режим disk reassign -s sysid старой системы -d sysid новой системы Например: disk reassign -s 1574384110 -d 1873909642
Не так давно меня как-то спросили - какая СХД нужна для бекапов с копированием 20 ТБ данных ежедневно, за небольшое окно резервного копирования? Вроде бы задача не сложная. Я ответил что подойдут почти все Low-End массивы, но всё же решил проверить взяв на тестирование СХД E5412 с 12 дисками NL-SAS 3ТБ. Основная сложность в расчёте производительности СХД - это справится ли контроллер. Что справятся жёсткие диски сомнения нет, тем более что производительность SAS и NL-SAS дисков при последовательных операциях ввода-вывода отличается минимально. Т.к. у меня был под рукой калькулятор расчёт производительность для NetApp E5412 (https://eseries-sizer.netapp.com/), то встала задача стоит ли верить цифрам которые он выдаёт. Калькулятор при расчёта заданной конфигурации примерно выдаёт 873 МБ/с. Конфигурация полигона:Физический сервер: Cisco B200M3 ОЗУ 64 ГБ Boot From iSCSI (LUN расположен на FAS3240) с этого диска копировали файл. LAN Cisco VIC 1280 10 GBE SAN Cisco VIC 1280 8 GB (FCoE внутри 10GBE)
При проведении тестирования у одного из Заказчиков была замечена одна проблем: На тестовой системе с Cluster Data ONTAP приехавшей на тестирование была подключена дисковая полка с агрегатом созданным из 7-mode. Всё бы ничего, но удалить данный аггрегат командой строки как Cluster Shell так и Node Shell невозможно. В Cluster Shell выдаёт ошибку Error: command failed: Aggregate "aggr1_sata1t" does not exist. В Node Shell по умолчанию попросту нет команды delete или destroy. В Maintaince mode аггрегат не виден. Решить проблему можно следующим способом - добавить опцию destroy в Node Shell. system node run -node options nodescope.reenabledcmds "aggr=destroy" aggr destroy options nodescope.reenabledcmds "" затем проверяем: что агрегат удалился - "aggr show"