Thursday, December 10, 2015

Shared VS. Dedicated processor (общие или выделенные процессоры)

Так что же лучше использовать для своей системы - какой процессор выбрать? Из общего процессорного пула или выделить отдельные ядра целого железного монстра, именуемого power-сервером? Тут уже зависит от вашего видения в предназначении партиции, читай LPAR'a. Если ПО, которое будет крутиться на сервере не сильно зависит от процессорных мощностей, т.е. партиция не производит в больших количествах математические рассчеты, то лучше под такую задачу выделить для нее общие процессоры. Для партиции, которая будет выполнять много вычислений и ПО требует серьезных затрат процессора логичнее назначать выделенные процессоры.
Использование процессора задается при конфигурировании (создании) нового LPAR.
Система покажет вам сколько процессоров доступно для использования.
Далее с точностью до десятых 0.1 можно назначать процессорные мощностя=) Про виртуальные процессоры подробнее тут. Про ограничение читаем подробнее тут.
В power-серверах 7+ и 8-й серии точность определяется до сотых 0.05.
Управлением пулом процессор осуществляется из HMC:
Настроек мало, так что тут все прозрачно.
Это что касается общих процессоров из пула.  
Выделенные процессоры:
Минимум один, максимум - все доступные ядра железяки. 
Проверь себя=)
Успехов!

Tuesday, December 8, 2015

MS Exchange 2010: создание массового списка рассылки

Создать простейший список рассылки думаю не составит большого труда, а что делать если список будет состоять из тысячи человек. Как быть в этом случае? Не добавлять же пользаков вручную!
Лучше всего, чтобы присутствовал пользовательский е-майл, все-таки по ФИО могут встречаться однофамильцы или по ФИО не получится найти пользователя, если у вас многодоменная структура.
Тут на помощь приходит шелл, будем использовать его!
Поехали. Список прислали в Excel - тоже не беда, сохраняем его в Текст Юникод (*.txt)
Например, users.txt
Создаем пустую группы рассылки Ulist
Нужный нам cmd-лет называется Add-DistributionGroupMember.
Супер, теперь получаем контент и указываем список.

Get-Content C:\somefolder\users.txt | Add-DistributionGroupMember -Identity Ulist
где C:\somefolder\users.txt — путь к списку пользователей.
В случае, если понадобится добавить еще пользователей в этот же список - нужно указать всего лишь новый файлик и запустить эту команду.

Успехов!

Tuesday, December 1, 2015

AIX: schedule users scripts (Планируем операции под пользователем)

Не все операции могут быть запущены под пользователем root, поэтому придется запускать их под другими пользователями. Один раз запустить - это хорошо, а что делать, когда нужно периодически запускать скрипты?
Вот тогда на помощь приходит cron.
Итак, распланируем операции под пользователем, например, назовем его notes.
Первое, что нужно сделать - разрешить пользователю пользоваться кроном! Для этого переходим /var/adm/cron в и создаем файлик cron.allow
Прописываем в него пользователей, кому разрешено использовать крон:
root
notes
Казалось бы что еще нужно сделать, на этом можно и завершить, но это не так!
Второе, переходим в /var/spool/cron/crontabs/ и создаем там файлик с заданием для пользователя notes. Примерный, скрипт выглядит так:
Переключаемся на пользователя notes
#crontab -e
ну или можно под root'om - тогда редактируем задания отдельного пользователя:
#crontab -e notes
* 10 1 12 * /lotus/lotus_update > /lotus/lotus_log 2>&1
Расшифровка:
* * * * * как команда будет выполнена /путь_до_вашего_скрипта > /логи
- - - - -
| | | | |
| | | | +----- день недели (1 - 7) (понедельник = 1)
| | | +------- месяц (1 - 12)
| | +--------- день месяца (1 - 31)
| +----------- час (0 - 23)
+------------- минута(0 - 59)
И не забываем, что все изменения вносим через VI!
Смотрим, что получилось
#crontab -l notes

Успехов!

Thursday, November 26, 2015

AIX migratepv: переносим данные на другой диск

Вот и встала задача перенести данные с одного диска на другой, при этом надо сохранить структуру. Для этих целей истпользуется команда migratepv. Миграцию можно запустить на несколько дисков, но лучше всего (сугубо мое мнение) перенести диск в диск, то есть один в один.Для полноты картины: в системе один диск, на котором расположены данные и собственно сама операционная система.
#lspv
Чтобы приступить к переносу нужно ввести второй диск в группу томов, откуда будем переносить данные, в моем случае это группа томов rootvg.
#extendvg rootvg hdisk2
Супер, теперь можно приступить к переносу данных.
Процесс занял примерно 10 минут, при размере данных в 10 Гб. При выполнении миграции выводится сообщение о том, что том hd5 является загрузочным. Так что теперь точно не забудем!
migratepv: boot logical volume hd5 migrated. 
Please remember to run bosboot, specifying /dev/hdisk2 as the target physical boot device. 
Also, run bootlist command to modify bootlist to include /dev/hdisk2.
Выполним необходимые настройки. Создаем загрузочный образ на новом диске:
#bosboot -ad /dev/hdisk2
Добавим загрузку с диска2 в основную очередь загрузки ОС AIX.
#bootlist -m normal hdisk2

Вот и настал момент истины - перезагрузка. Ну что ж проверяем:
#shutdown -Fr now
Система успешно перегрузилась =)
Успехов!

Tuesday, November 24, 2015

VIOS: раздаем локальные диски

Создаем партицию LPAR, подключенную через виртуальный адаптер скази адаптер (virtual scsi). Про конфигурацию именно MPIO можно почитать тут. В данном примере рассматривается подключение локальных дисков из rootvg самого ВИО-сервера.
Т.е. диски выданы на виос через некое хранилище (или это есть локальные диски) и введены в группу томов rootvg.
Поехали, смотрим какие логические тома у нас присутствуют, а заодно и размер самой группы томов rootvg.
#lsvg -lv rootvg
#lsvg rootvg
Определили какие тома присутствуют, создаем том i3-test1-d1
Т.к. все-таки среда виоса бедна командами, переключаемся в Аикс.
#oem_setup_env
Я использую алиас, затем создаю логический том с нужным названием и размером.
#mklv -t jfs2 -y i3-test1-d1 rootvg 50G
Теперь выходим из аикса и мапим данный диск к нужной партиции LPAR.
Супер, диск примапился.
Успехов! 

Monday, November 23, 2015

AIX: виртуальные процессоры

Общий вид процессорных технологий Р-серии
Виртуальные процессоры используются, чтобы сказать партиции (Операционной системе) сколько процессорных ядер она имеет. С помощью данной настройки можно контролировать количество потоков, которые система может запускать параллельно. Количество виртуальных процессоров не может изменить общее процессорное время, которое доступно для вашей партиции.
Лучше всего рассмотреть на примере: для партиции выделено 1,5 процессора из общего процессорного пула, то есть 15 мс процессорного времени (я надеюсь вы помните про time slice?).
Если для партиции выделено:
2 виртуальных процессора = 7,5 мс
4 виртуальных процессоров = 3, 75 мс
Партиция без ограничений (uncapped LPARS) может испытывать проблемы с производительностью, если значение виртуальных процессоров мало. Поэтому важно помнить, что не стоит устанавливать слишком маленькое значения виртуальных процессоров.
Максимальное количество виртуальных процессоров 256.

Общие рекомендации. 
Сколько виртуальных процессоров использовать?
Для партиций без ограничений лучше установить значение виртуальных процессоров равное количество процессоров в общем процессорном пуле.
Для партиций с ограничением лучше установить минимальное количество виртуальных процессоров и далее мониторить ситуацию, чтобы невозникло проблем с производительностью. Если партиции хватает процессорных мощеностей, оставляем. Если партиция не справляется, увеличиваем значение виртуальных процессоров.

Многопоточность - однопоточность.
Вы можете заставить систему работать в любом режиме, каком вам нужно, по потребности. Будь то работа в один поток, или работа с несколькими потоками.
Single-threaded (ST) все процессорные мощности объединены в один поток.
Simultaneous multitreading (SM) процессор получает инструкции из нескольких железных потоков, т.е. система динамически приспосабливается к окружению, и позволяет выполнять команды из различных потоков, а также позволяет одному железному потоку задействовать "простаивающие" процессорные ядра. С помощью данной технологии даже один процессор может получать инструкции из нескольких железных потоков.
С включенным мультитрайдингом каждый виртуальный процессор создает 4 потока (для Power7), и этот поток называется логический процессор.
#smtctl
Выключим динамически мультитрейдинг
Включение мультитрейдинга:
#smtctl -m on
Посмотрим со стороны системных элементов, а именно через атрибуты процессора (просмотр подробной информации по системе):
#lsattr -El proc0

Успехов!

Tuesday, November 10, 2015

LPAR: capped or uncapped

Партиция в Power VM может использовать общие процессорные мощности пула процессоров (shared processor pool) или же наоборот, для партиции могут быть выделены (dedicated processor) целые ядра процессорные ядра. Но и это не все возможности ( или же ограничения), которые доступны для конфигурирования вашей партиции. Одно из важных значений является ограничена ли ваша партиция или не ограничена, т.е. capped or uncapped.
Данная фича задется в настройках процессора LPAR'a.

Как было сказано режима всего 2.
1. Capped - партиция ограничена значениями, выделенными для нее (defined CPU entitlement). Например, вы указали, что партиция может использовать 1,5 процессора (я думаю, что вы помните, что все операции внутри гипервизора проходят отрезками по 10 мс процессорного времени), то есть выше предела использования в 15 мс за такт внутри общего пула процессоров партиция не имеет права шагнуть, даже при наличии свободных процессорных мощностей. Все партиция ограничена - ни шагу вперед, к свободным ресурсам. Следующий такт - то же самое, все те же 15 мс и т.д.
2. Uncapped - партиция не ограничена. В случае, если для выполнения операций требуется процессорные вычисления и свободные ресурсы есть в наличиии, партиция задействует их для своих нужд. 
В случае если у вас несколько  uncapped партиций существует приоритет (uncapped weight value) для того, чтобы указать какая партиция имеет приоритет над ресурсами, а какой партиции придется подождать. Чем выше значение приоритета тем больше ресурсов доступно для нее. Например, 2 партиции со значениями 100 и 200. Для второй партиции получается вдвоем больше ресурсов будет выдано из общего процессорного пула. Для партиции 1 будет доступно 1/3 процессорных мощностей, для второй - 2/3.

Успехов!

VIO: The command's response was not recognized. This may or may not indicate a problem.

Отличная ошибка возникла совсем недавно.
Проблем заключается в том, что на одном сервере пропал мультипассинг, т.е. пропало подключение диска через vscsi к одну из виосов. По второму виосу все нормально работало.
С проблемного виоса пытаюсь сделать подключение, но выдается данная ошибка:
The command's response was not recognized.  This may or may not indicate a problem.
Сами vscsi находятся в difened состоянии:
Розыск по инету дает только ошибки, связанные с подключением дисков к дуал-виос конфигурации. У меня так было подключено, а потом одно подключение пропало. Куда делось?
открываю лог:
errpt -a | more
Рекомендация удалить vscsi и сделать заново.
Удаляем
rmdev -vdev hdisk13
Соответственно, виртуальный скази ушел, на определении адаптера vhost4 (в моем случае остался только виртуальный CDROM)
Попробую создать заново - таже ошибка.
Перегружаю вио-сервер.
Привязка по-прежнему не выходит - удаляю сам виртуальный адаптер vhost.
rmdev -dev vhost4 -recursive
Обновляем устройства на виосе:
cfgmgr
Вот это реально поворот!
Вот так и живет, мультипассинг не работает. Админы стораджа говорят, что все нормально.
Расширенный вывод, включенный на ВИО-сервере не дает результата

export CLI_DEBUG=33
Пока в процессе решения проблемы. Как мне кажется, нужно пересобирать LPAR. 

Успехов!

NPIV: включаем фибровые карты

С помощью технологии NPIV можно сделать виртуальную карту, выданную на отдельной партиции, полноценной фибровой картой, и прицепить диски напрямую в обход ВИО-сервера. Все операции выполняются довольно просто и не вызывают трудностей.
1. Добавляем виртуальный фибровый адаптер на ВИО-сервере. Для это редактируем через HMC профиль нужного ВИО-сервера. Обязательно его связываем с клиентской партицией.
2. Затем логинемся и проверяем, что новый виртуальный адаптер появился.
В случае, если у вас не поддерживается динамическое добавление ресурсов (DLPAR операции), перегружаем виос.
cfgdev
lsdev | grep vfc
Адаптер появился.
3. По аналогии создаем такой же адаптер на LPAR'e и связываем их.
vfcmap -fcs fcs0 -vadapter vfchost0
4. Определяем WWPN для клиентской партиции и передаем администратору стораджа.
Отдельно хочется сказать, что NPIV можно развернуть только на карточках FC 8G.
Например,
5273 PCIe LP 8Gb 2-Port Fibre Channel Adapter
5735 8 Gigabit PCI Express Dual Port Fibre Channel
На карточках 4 Гб можно развернуть только виртуальный SCSI.
Успехов! Комментарии приветствуются.

Wednesday, October 28, 2015

Lotus Domno: RISC (Purge Interval Replication Control)

Purge Interval Replication Control -  особенность, которая появилась в R8.5.3, предназначенная для предотвращения попадания старых, удаленных документов (когда уже были удаленны deletion stubs) обратно в реплику. Т.е. получается стабы очистились, а дата-документы появились обратно в реплике после удаления.
Решил я сделать реплику с включенной такой штукой:
А сервер мне говорит, что доки старые - не надо их реплицировать. Но мне нужна вся реплика на другом сервере. Почему ты это за меня решил? Вот это поворот.
Для того, чтобы посмотреть какие базы использую эту фичу, даем команду с консоли Domino-сервера:
show directory -pirconly
Проверил пару раз, может ошибся. 
Ничего другого не остается - отключаю данную фичу и запускаю нормальную репликацию. Открываем настройки репликации для данной БД.
Выключаем данную галку. Теперь можно сделать полноценную реплику.
Фишка то довольно полезная, поэтому можно включать ее на серверах.
Включается с помощью Дополнительных настроек для БД.

Или с помощью компакта (сжатия БД не происходит, включается только опция):
Compact '-PIRC On' – Enables PIRC
Compact '-PIRC Off' – Disabled PIRC
Правда, команды, которая отвечает за включение через компакт я не нашел=(

Успехов! Комментарии приветствуются

Tuesday, October 27, 2015

VIOS: удаляем LPAR и его профиль

Итак, задача довольно проста - удалить.
Перед нами дуал-виосная архитектура, поэтому надо почистить концы на 2-х ВИО-серверах.
Смотрим, какие параметры выданы для этой партиции (буду смотреть на одном виосе, действия на втором аналогичные). У меня это LPAR с айдишником 4.
lsmap -vadapter vhost1
Теперь проверим ресурсы на HMC:
Через профиль ВИОСа видно, что создан виртуальный scsi-адаптер на партиции 4.
Вот его мы и будем отключать.
Удаляем его.
Так как это не DLPAR-операция, то требуется перезагрузка виоса, чтобы он заново прочитал профиль.
Удаляем виртуальный девайс VTD, связанный с виртуальным scsi-адаптером.
rmvdev -vtd nameofdevice
Далее остается только удалить определение самого виртуального адаптера
rmdev -dev vhost1
Удаляем сам LPAR:


Перегружаем ВИО-сервер.
Успехов!

Monday, October 26, 2015

Linux: смотрим системную информацию


Сегодня определим или вернее сказать посмотрим основные утилиты, которые помогут нам собрать статистику по операционной системе. Определить тип процессора, количество оперативной памяти, собрать информацию по дисковому пространству.
1. Смотрим на процессор:
lscpu
У меня один интеловский процессор с 4-мя ядрами, работает на частоте 2.7 ГГЦ.
2. Далее диски
fdisk -l
Дисков может быть много, поэтому покажу только 2. У меня они работают в LVM.
Подробнее про LVM.

3. Периферийные устройства:
lspci (вывод образан)

Из картинки понятно, что у меня виртуалка под управлением VWware.
lspci -v | grep "VGA"
Покажет дефолтный VGA-адаптер.
4. Смотрим блочные устройства:
lsblk
 Все теже, знакомые диски=)
5. Смонтированные файловые системы или устройства.
mount
6. Теперь на очереди - ОП.
free

7. Виртуальная директория /proc предоставляем нам немного дополнительной информаци.
Например,
cat /proc/meminfo
cat /proc/cpuinfo
cat /proc/filesystems


8. Проверка установленной ОС и ее версии
hostnamectl

Успехов!

Tuesday, October 13, 2015

Red hat 7: установка Lotus Domino 8.5.3 32 bit

Сегодня займемся установкой 32-х битного сервера лотуса на 64 битную платформу linux'а.
Установим сам линукс, думаю, что это не займет много времени.
Lotus domino будем ставить в отдельный том (отдельную файловую систему), поэтому установка линукса обязательна в LVM.
Под систему 50 Гб, под данные 450 Гб.
Смотрим группу томов:
vgdisplay
Создаем том под данные, под лог и под установочные файлы лотус-сервера:
Теперь в этих томах создаем файловые системы ext4.
mke2fs -t ext4 /dev/vg_local/tlog
mke2fs -t ext4 /dev/vg_local/domino
mke2fs -t ext4 /dev/vg_local/data

Создадим пути и смонтируем:
Записываем информацию о новых файловых системах в файлик /etc/fstab
Чтобы монтировались при загрузке системы:
/dev/mapper/vg_local-tlog /data/tlog              ext4    defaults        1 2

Расширим директорию /tmp, чтобы залить туда дистрибутивы.
Расширяем логический том, затем файловую систему
lvextend --size +3G /dev/vg_local/tmp
resize2fs /dev/mapper/vg_local-tmp 4G
Перед установкой отключаем файерволл:
Или указываем разрешенные порты.
Создаем пользователя, под которым будем запускать лотус-сервер и группу.
Теперь можно приступить к установке:
Запускаем установщик и получаем вот такую ошибку:
Ок, устанавливаем зависимости - без них никак.
В процессе установки указываем нужные параметры:
Установили сервер, не забываем устанавливать фик паки и обновления. При установке фикс пака нужно установить пересенную NUI_NOTESDIR, которая показывает на программные файлы лотус-сервера.
NUI_NOTESDIR=/domino/ibm/lotus
Кнопка "tab" вас спасет=)) жмем только на нее.
Теперь сетапим сервер - переключаемся на notes'a и переходим в дата-директорию
/domino/ibm/lotus/bin/server -listen
Запускаем клиент удаленной установки сервера.
И далее обычная установка сервера Lotus Domino=)
Не забываем устанавливать лимиты в /etc/security/limits.conf
notes soft nofile 60000
notes hard nofile 80000

Успехов! Комментарии приветствуются!