NetApp
Как перенести vol0 (загрузочного тома) на другой aggregate в NetApp
02
На одном из проектов на СХД NetApp понадобилось перенести загрузочный том vol0 контроллера  c одного aggregate (aggr) на другой, новый aggregate. Создаем новый aggregate (aggr1). Можно из графики можно командой aggr add Создаем новый том vol1. Можно из графики можно командой vol add Далее копируем содержимое каталога etc на новый том командой ndmpcopy /vol/vol0/etc /vol/vol1 Делаем новый том загрузочным vol options vol1 root
Настройка серверов windows и linux
NetApp
Проблемы с подключением новых дисков к NetApp
03
Возникла необходимость подключить новые диски в новой дисковой полке к СХД NetApp. В обычном стандартном случае всё впорядке и всё делается само и легко. В моём случае полка уже ранее использовалась  и её диски ранее принадлежали другому контроллеру. Я знал команду priv set advanced - вход в расширеный режим disk reassign -s sysid старой системы -d sysid новой системы Например: disk reassign -s 1574384110 -d 1873909642
Настройка серверов windows и linux
Active directory, GPO, CA
Как настроить гранулированные политики паролей или PSO (password setting object) через Power Shell
010
pso logoЧто такое PSO (гранулированные пароли) мы узнали тут, про то, как это настроить в 2008R2 описано тут в 2012 тут. Хардкорщики скажут, что GUI не их путь, для удовлетворения таких есть и для них путь. Как вы знаете, возможности Windows PowerShell практически безграничны. Большинство задач, которые выполняются посредством графического интерфейса можно автоматизировать, написав скрипт и гранулированные политики паролей тут не исключение. Для управления гранулированными политиками паролей непосредственно при помощи PowerShell используются четыре командлета. Посмотрим, как можно добавить новый объект PSO средствами PowerShell.
Настройка серверов windows и linux
NetApp
Тестирование СХД NetApp E5412
04
Не так давно меня как-то спросили - какая СХД нужна для бекапов с копированием 20 ТБ данных ежедневно, за небольшое окно резервного копирования? Вроде бы задача не сложная. Я ответил что подойдут почти все Low-End массивы, но всё же решил проверить взяв на тестирование СХД E5412 с 12 дисками NL-SAS 3ТБ. Основная сложность в расчёте производительности СХД - это справится ли контроллер. Что справятся жёсткие диски сомнения нет, тем более что производительность SAS и NL-SAS дисков при последовательных операциях ввода-вывода отличается минимально. Т.к. у меня был под рукой калькулятор расчёт производительность для NetApp E5412 (https://eseries-sizer.netapp.com/), то встала задача стоит ли верить цифрам которые он выдаёт. Калькулятор при расчёта заданной конфигурации примерно выдаёт 873 МБ/с. Конфигурация полигона: Физический сервер: Cisco B200M3 ОЗУ 64 ГБ Boot From iSCSI (LUN расположен на FAS3240) с этого диска копировали файл. LAN Cisco VIC 1280 10 GBE SAN Cisco VIC 1280 8 GB (FCoE внутри 10GBE)
Настройка серверов windows и linux
NetApp
NetApp Error: command failed: Aggregate «aggr1_sata1t» does not exist
02
NetApp При проведении тестирования у одного из Заказчиков была замечена одна проблем: На тестовой системе с Cluster Data ONTAP приехавшей на тестирование была подключена дисковая полка с агрегатом созданным из 7-mode. Всё бы ничего, но удалить данный аггрегат командой строки как Cluster Shell так и Node Shell невозможно. В Cluster Shell выдаёт ошибку Error: command failed: Aggregate "aggr1_sata1t" does not exist. В Node Shell по умолчанию попросту нет команды delete или destroy. В Maintaince mode аггрегат не виден. Решить проблему можно следующим способом - добавить опцию destroy в Node Shell. system node run -node options nodescope.reenabledcmds "aggr=destroy" aggr destroy                                                                                                             options nodescope.reenabledcmds "" затем проверяем: что агрегат удалился - "aggr show"
Настройка серверов windows и linux
NetApp
Как в NetApp переключить Unified Target Adapter в Fiber Channel Mode
01
NetApp Если вы хотите использовать UTA адаптер в режиме Fiber Channel нужно произвести следующие действия: отключить порты адаптера командами: fcp adapter modify -node fascl-01 -adapter 0c -state down fcp adapter modify -node fascl-01 -adapter 0d -state down изменить режим адаптера на Fiber Channel командами: ucadmin modify -node fascl-01 -adapter 0c -mode fc -type target ucadmin modify -node fascl-01 -adapter 0d -mode fc -type target перезагрузить контроллер: system node reboot -node fascl-01
Настройка серверов windows и linux
Hyper-V
Как запустить Windows Server 2012 R2 Hyper-V и VMware vSphere 5.5 внутри виртуальной машины (VM) запущенной на VMware vSphere 5.5
03
Недавно столкнулись с задачей создания полигона Windows Server 2012 R2 Hyper-V и Microsoft System Center 2012 R2. Свободных физических серверов у нас не оказалось, зато есть серверная ферма на VMware vSphere 5.5. Для экономии ресурсы развёртываем Windows Server 2012 R2 Hyper-V внутри виртуальной машины (VM) запущенной на VMware vSphere 5.5. Для этого нужно в настройках созданной виртуальной машины с Windows Server 2012 R2 Hyper-V сделать следующие настройки:
    1. в разделе Virtual Hardware -> CPU выбрать checkbox "Expose hardware-assisted virtualization to the guest operating system"
    Настройка серверов windows и linux
    Hyper-V
    Enable Nested Windows Server 2012 R2 Hyper-V on VMware vSphere 5.5
    03
    Actually the topic itself is almost redundant but I couldn’t find a single post with results that actually work without going through comments by various readers, so after thorough testing I came with the hereunder results and it should work 100% guaranteed =). First: I’d recommend visiting this page “Running Nested VMs” as its a consolidation of the knowledge and risks you need to deal with.
    Настройка серверов windows и linux