NetApp
NetApp Create CIFS Share / Show CIFS Shares
02
This Netapp HowTo is useful for the following
  • Show CIFS shares
  • Create CIFS Shares
  • NetApp Create CIFS Share

NetApp Create CIFS Share

NetApp Create CIFS Share
1
netapp> cifs shares -add Share /vol/cifs1/cifs-share
Note the above creates a cifs share in the qtree called cifs-share at the location /vol/cifs1/cifs-share

NetApp Show CIFS Shares

We can confirm the above CIFS share have been created, by entering:
NetApp Show CIFS Shares
1
2
3
4
5
6
7
8
9
10
11
netapp> cifs shares
Name         Mount Point                       Description
----         -----------                       -----------
ETC$         /etc                              Remote Administration
                        BUILTIN\Administrators / Full Control
HOME         /vol/vol0/home                    Default Share
                        everyone / Full Control
C$           /                                 Remote Administration
                        BUILTIN\Administrators / Full Control
Share        /vol/cifs1/cifs-share
                        everyone / Full Control
Настройка серверов windows и linux
NetApp
Netapp Show RAID Configurtion, Reconstruction Info
010
netapp logoGood day! Dear readers and guests of one of the major blogs on system administration Pyatilistnik.org. Last time I told you how to configure a Mikrotik router in a small office. Today we will talk about: Netapp Show RAID Configuration, reconstruction information. This command displays Netapp RAID setup and rebuild status and other information such as spare disks. I am sure that there will be colleagues who are faced with such a task for the first time and he has a number of questions.
Настройка серверов windows и linux
NetApp
Как заменить вышедший из строя диск на NetApp FAS со статусом failed disk / broken disk
038
netapp logo Добрый день! Уважаемые читатели и гости IT блога Pyatilistnik.org. Сейчас уже у многих компаний есть какая-никакая система хранения данных, у меня, это FAS 2200. Идет время и самая изнашиваемая деталь СХД, начинает выходить из строя. Сегодня речь пойдет, о процессе замены жесткого диска на FAS 2200. Использую в работе СХД NetApp. Настроен AutoSupport. Вышли из строя два диска со статусом failed disk / broken disk. Диски на СХД подсвечены красным огоньком.
Настройка серверов windows и linux
IBM
Ошибка подготовка автоматического восстановления в windows server 2012R2 и после загрузки черный экран.
09
Встала задача обновить blade корзину из 14 штук в плане прошивок и все такое, все обновились нормально кроме одного. Пробовал обновлять автоматическим диском, не получилось обновил вручную. Думаю ну все хорошо, но как обычно мелкософт поднасрал. При загрузке блейда я увидел подготовка автоматического восстановления и белый ползунок Ошибка подготовка автоматического восстановления в windows server 2012R2
Настройка серверов windows и linux
NetApp
Как перенести vol0 (загрузочного тома) на другой aggregate в NetApp
02
На одном из проектов на СХД NetApp понадобилось перенести загрузочный том vol0 контроллера  c одного aggregate (aggr) на другой, новый aggregate. Создаем новый aggregate (aggr1). Можно из графики можно командой aggr add Создаем новый том vol1. Можно из графики можно командой vol add Далее копируем содержимое каталога etc на новый том командой ndmpcopy /vol/vol0/etc /vol/vol1 Делаем новый том загрузочным vol options vol1 root
Настройка серверов windows и linux
NetApp
Проблемы с подключением новых дисков к NetApp
03
Возникла необходимость подключить новые диски в новой дисковой полке к СХД NetApp. В обычном стандартном случае всё впорядке и всё делается само и легко. В моём случае полка уже ранее использовалась  и её диски ранее принадлежали другому контроллеру. Я знал команду priv set advanced - вход в расширеный режим disk reassign -s sysid старой системы -d sysid новой системы Например: disk reassign -s 1574384110 -d 1873909642
Настройка серверов windows и linux
NetApp
Тестирование СХД NetApp E5412
04
Не так давно меня как-то спросили - какая СХД нужна для бекапов с копированием 20 ТБ данных ежедневно, за небольшое окно резервного копирования? Вроде бы задача не сложная. Я ответил что подойдут почти все Low-End массивы, но всё же решил проверить взяв на тестирование СХД E5412 с 12 дисками NL-SAS 3ТБ. Основная сложность в расчёте производительности СХД - это справится ли контроллер. Что справятся жёсткие диски сомнения нет, тем более что производительность SAS и NL-SAS дисков при последовательных операциях ввода-вывода отличается минимально. Т.к. у меня был под рукой калькулятор расчёт производительность для NetApp E5412 (https://eseries-sizer.netapp.com/), то встала задача стоит ли верить цифрам которые он выдаёт. Калькулятор при расчёта заданной конфигурации примерно выдаёт 873 МБ/с. Конфигурация полигона: Физический сервер: Cisco B200M3 ОЗУ 64 ГБ Boot From iSCSI (LUN расположен на FAS3240) с этого диска копировали файл. LAN Cisco VIC 1280 10 GBE SAN Cisco VIC 1280 8 GB (FCoE внутри 10GBE)
Настройка серверов windows и linux
NetApp
NetApp Error: command failed: Aggregate «aggr1_sata1t» does not exist
02
NetApp При проведении тестирования у одного из Заказчиков была замечена одна проблем: На тестовой системе с Cluster Data ONTAP приехавшей на тестирование была подключена дисковая полка с агрегатом созданным из 7-mode. Всё бы ничего, но удалить данный аггрегат командой строки как Cluster Shell так и Node Shell невозможно. В Cluster Shell выдаёт ошибку Error: command failed: Aggregate "aggr1_sata1t" does not exist. В Node Shell по умолчанию попросту нет команды delete или destroy. В Maintaince mode аггрегат не виден. Решить проблему можно следующим способом - добавить опцию destroy в Node Shell. system node run -node options nodescope.reenabledcmds "aggr=destroy" aggr destroy                                                                                                             options nodescope.reenabledcmds "" затем проверяем: что агрегат удалился - "aggr show"
Настройка серверов windows и linux