Thursday, November 26, 2015

AIX migratepv: переносим данные на другой диск

Вот и встала задача перенести данные с одного диска на другой, при этом надо сохранить структуру. Для этих целей истпользуется команда migratepv. Миграцию можно запустить на несколько дисков, но лучше всего (сугубо мое мнение) перенести диск в диск, то есть один в один.Для полноты картины: в системе один диск, на котором расположены данные и собственно сама операционная система.
#lspv
Чтобы приступить к переносу нужно ввести второй диск в группу томов, откуда будем переносить данные, в моем случае это группа томов rootvg.
#extendvg rootvg hdisk2
Супер, теперь можно приступить к переносу данных.
Процесс занял примерно 10 минут, при размере данных в 10 Гб. При выполнении миграции выводится сообщение о том, что том hd5 является загрузочным. Так что теперь точно не забудем!
migratepv: boot logical volume hd5 migrated. 
Please remember to run bosboot, specifying /dev/hdisk2 as the target physical boot device. 
Also, run bootlist command to modify bootlist to include /dev/hdisk2.
Выполним необходимые настройки. Создаем загрузочный образ на новом диске:
#bosboot -ad /dev/hdisk2
Добавим загрузку с диска2 в основную очередь загрузки ОС AIX.
#bootlist -m normal hdisk2

Вот и настал момент истины - перезагрузка. Ну что ж проверяем:
#shutdown -Fr now
Система успешно перегрузилась =)
Успехов!

Tuesday, November 24, 2015

VIOS: раздаем локальные диски

Создаем партицию LPAR, подключенную через виртуальный адаптер скази адаптер (virtual scsi). Про конфигурацию именно MPIO можно почитать тут. В данном примере рассматривается подключение локальных дисков из rootvg самого ВИО-сервера.
Т.е. диски выданы на виос через некое хранилище (или это есть локальные диски) и введены в группу томов rootvg.
Поехали, смотрим какие логические тома у нас присутствуют, а заодно и размер самой группы томов rootvg.
#lsvg -lv rootvg
#lsvg rootvg
Определили какие тома присутствуют, создаем том i3-test1-d1
Т.к. все-таки среда виоса бедна командами, переключаемся в Аикс.
#oem_setup_env
Я использую алиас, затем создаю логический том с нужным названием и размером.
#mklv -t jfs2 -y i3-test1-d1 rootvg 50G
Теперь выходим из аикса и мапим данный диск к нужной партиции LPAR.
Супер, диск примапился.
Успехов! 

Monday, November 23, 2015

AIX: виртуальные процессоры

Общий вид процессорных технологий Р-серии
Виртуальные процессоры используются, чтобы сказать партиции (Операционной системе) сколько процессорных ядер она имеет. С помощью данной настройки можно контролировать количество потоков, которые система может запускать параллельно. Количество виртуальных процессоров не может изменить общее процессорное время, которое доступно для вашей партиции.
Лучше всего рассмотреть на примере: для партиции выделено 1,5 процессора из общего процессорного пула, то есть 15 мс процессорного времени (я надеюсь вы помните про time slice?).
Если для партиции выделено:
2 виртуальных процессора = 7,5 мс
4 виртуальных процессоров = 3, 75 мс
Партиция без ограничений (uncapped LPARS) может испытывать проблемы с производительностью, если значение виртуальных процессоров мало. Поэтому важно помнить, что не стоит устанавливать слишком маленькое значения виртуальных процессоров.
Максимальное количество виртуальных процессоров 256.

Общие рекомендации. 
Сколько виртуальных процессоров использовать?
Для партиций без ограничений лучше установить значение виртуальных процессоров равное количество процессоров в общем процессорном пуле.
Для партиций с ограничением лучше установить минимальное количество виртуальных процессоров и далее мониторить ситуацию, чтобы невозникло проблем с производительностью. Если партиции хватает процессорных мощеностей, оставляем. Если партиция не справляется, увеличиваем значение виртуальных процессоров.

Многопоточность - однопоточность.
Вы можете заставить систему работать в любом режиме, каком вам нужно, по потребности. Будь то работа в один поток, или работа с несколькими потоками.
Single-threaded (ST) все процессорные мощности объединены в один поток.
Simultaneous multitreading (SM) процессор получает инструкции из нескольких железных потоков, т.е. система динамически приспосабливается к окружению, и позволяет выполнять команды из различных потоков, а также позволяет одному железному потоку задействовать "простаивающие" процессорные ядра. С помощью данной технологии даже один процессор может получать инструкции из нескольких железных потоков.
С включенным мультитрайдингом каждый виртуальный процессор создает 4 потока (для Power7), и этот поток называется логический процессор.
#smtctl
Выключим динамически мультитрейдинг
Включение мультитрейдинга:
#smtctl -m on
Посмотрим со стороны системных элементов, а именно через атрибуты процессора (просмотр подробной информации по системе):
#lsattr -El proc0

Успехов!

Tuesday, November 10, 2015

LPAR: capped or uncapped

Партиция в Power VM может использовать общие процессорные мощности пула процессоров (shared processor pool) или же наоборот, для партиции могут быть выделены (dedicated processor) целые ядра процессорные ядра. Но и это не все возможности ( или же ограничения), которые доступны для конфигурирования вашей партиции. Одно из важных значений является ограничена ли ваша партиция или не ограничена, т.е. capped or uncapped.
Данная фича задется в настройках процессора LPAR'a.

Как было сказано режима всего 2.
1. Capped - партиция ограничена значениями, выделенными для нее (defined CPU entitlement). Например, вы указали, что партиция может использовать 1,5 процессора (я думаю, что вы помните, что все операции внутри гипервизора проходят отрезками по 10 мс процессорного времени), то есть выше предела использования в 15 мс за такт внутри общего пула процессоров партиция не имеет права шагнуть, даже при наличии свободных процессорных мощностей. Все партиция ограничена - ни шагу вперед, к свободным ресурсам. Следующий такт - то же самое, все те же 15 мс и т.д.
2. Uncapped - партиция не ограничена. В случае, если для выполнения операций требуется процессорные вычисления и свободные ресурсы есть в наличиии, партиция задействует их для своих нужд. 
В случае если у вас несколько  uncapped партиций существует приоритет (uncapped weight value) для того, чтобы указать какая партиция имеет приоритет над ресурсами, а какой партиции придется подождать. Чем выше значение приоритета тем больше ресурсов доступно для нее. Например, 2 партиции со значениями 100 и 200. Для второй партиции получается вдвоем больше ресурсов будет выдано из общего процессорного пула. Для партиции 1 будет доступно 1/3 процессорных мощностей, для второй - 2/3.

Успехов!

VIO: The command's response was not recognized. This may or may not indicate a problem.

Отличная ошибка возникла совсем недавно.
Проблем заключается в том, что на одном сервере пропал мультипассинг, т.е. пропало подключение диска через vscsi к одну из виосов. По второму виосу все нормально работало.
С проблемного виоса пытаюсь сделать подключение, но выдается данная ошибка:
The command's response was not recognized.  This may or may not indicate a problem.
Сами vscsi находятся в difened состоянии:
Розыск по инету дает только ошибки, связанные с подключением дисков к дуал-виос конфигурации. У меня так было подключено, а потом одно подключение пропало. Куда делось?
открываю лог:
errpt -a | more
Рекомендация удалить vscsi и сделать заново.
Удаляем
rmdev -vdev hdisk13
Соответственно, виртуальный скази ушел, на определении адаптера vhost4 (в моем случае остался только виртуальный CDROM)
Попробую создать заново - таже ошибка.
Перегружаю вио-сервер.
Привязка по-прежнему не выходит - удаляю сам виртуальный адаптер vhost.
rmdev -dev vhost4 -recursive
Обновляем устройства на виосе:
cfgmgr
Вот это реально поворот!
Вот так и живет, мультипассинг не работает. Админы стораджа говорят, что все нормально.
Расширенный вывод, включенный на ВИО-сервере не дает результата

export CLI_DEBUG=33
Пока в процессе решения проблемы. Как мне кажется, нужно пересобирать LPAR. 

Успехов!

NPIV: включаем фибровые карты

С помощью технологии NPIV можно сделать виртуальную карту, выданную на отдельной партиции, полноценной фибровой картой, и прицепить диски напрямую в обход ВИО-сервера. Все операции выполняются довольно просто и не вызывают трудностей.
1. Добавляем виртуальный фибровый адаптер на ВИО-сервере. Для это редактируем через HMC профиль нужного ВИО-сервера. Обязательно его связываем с клиентской партицией.
2. Затем логинемся и проверяем, что новый виртуальный адаптер появился.
В случае, если у вас не поддерживается динамическое добавление ресурсов (DLPAR операции), перегружаем виос.
cfgdev
lsdev | grep vfc
Адаптер появился.
3. По аналогии создаем такой же адаптер на LPAR'e и связываем их.
vfcmap -fcs fcs0 -vadapter vfchost0
4. Определяем WWPN для клиентской партиции и передаем администратору стораджа.
Отдельно хочется сказать, что NPIV можно развернуть только на карточках FC 8G.
Например,
5273 PCIe LP 8Gb 2-Port Fibre Channel Adapter
5735 8 Gigabit PCI Express Dual Port Fibre Channel
На карточках 4 Гб можно развернуть только виртуальный SCSI.
Успехов! Комментарии приветствуются.