Пришлось разбираться с кучей wwn-устройств, а так как каждый вендор предпочитает выводить в том виде, каком ему удобнее, то по ходу прилось делать переводчик из одного вида в другой.
В результате получился вот этот переводчик. Позволяет преводить из вида типа 00:aa:bb:cc или 00aabbcc в друг друга, в верхний или нижний регистр, а также в сокращенную форму без ведущих нулей. Помогает при поиске совпадений для утилит различных вендоров.

Для тех, кто предпочитает командную строку могу предложить вариант на perl:

cat | perl -n -e 's/([0-9a-f][0-9a-f])([0-9a-f][0-9a-f])([0-9a-f][0-9a-f])([0-9a-f][0-9a-f])([0-9a-f][0-9a-f])([0-9a-f][0-9a-f])([0-9a-f][0-9a-f])([0-9a-f][0-9a-f])/$1:$2:$3:$4:$5:$6:$7:$8/gi; print'

Ну и в продолжении предыдущей статьи добавляю сюда еще и скрипт для создания клона загрузочного диска в VxVM. Таким образом, если загрузочные диски под веритасом, можно пользоваться этим скриптом. В основе скрипта лежит блюпринт сановский Toward a Reference Configuration for VxVM Managed Boot Disks. Но скрипт творчески переработан в части выбора томов для зеркалирования.
Для инициализации нужно в VxVM инициализировать диск, и назвать его clone.
Ну например, так:

vxdisksetup -i c6t0d0s2
vxdg -g rootdg adddisk clone=c6t0d0s2

Для выбора томов, для зеркалирования на клон-диск, следует поправить в скрипте секцию
VOLUMES="rootvol:0:clone-rootvol:0x01:0x00 \
swapvol:1:clone-swapvol:0x03:0x01 \
var:5:clone-var:0x07:0x00 \
coredump:6:clone-coredump:0x00:0x00"

Качаем скрипт vxclonedisk

О необходимости живого и загружабельного клона root-диска, надеюсь, никому объяснять не надо.

Помогает он очень часто, после неудачных патчей, после пользовательских факапов и прочих некайфов, которые могут произойти как по ошибке, так и в процессе плановых работ.

Компания Sun Microsystems (Ныне принадлежащая Oracle) настойчиво рекомендует использовать Solaris Volume Manager для загрузочных устройств. Он достаточно прост в управлении и стоит ноль рублей ноль копеек.

Автором сайта, с моей подачи, был разработан шелл-скрипт, который создает клон рутового диска без особых усилий, нужно только выставить правильные настройки в самом начале скрипта.  Скрипт размечает диск, последовательно копирует разделы, чекает их fsck, правит vsftab,  пишет деятельность в лог.

Скрипт проверен лично мной на живой системе и отдан в продуктив.
Качаем скрипт makeclonesvm

Упала задача — проинсталлировать 25К, который стоял в коробке и не использовался.

Понятное дело, что железка уже EOL, но задачи такие падают.

Для того, чтобы грамотно спланировать устновку и не ошибиться по срокам, приведу примерный таймстамп по которому можно ориентироваться.

1. Подключение питания, сети, подготовка нужной оптики — 1,5 — 2,5 часа

многое зависит от персонала заказчика, электриков, сетивиков, оптиководов.

2. Подготовка контроллеров, накат патчей с EIS, конфигурация доменов — 8 — 10 часов.

Да, именно так, там достаточно слабые железки на контроллерах, патчи ставятся очень долго, особенно если предустановлена несвежая солярка.

3. Конфигурация инсталл-сервера — 1 час

4. Подключение загрузочных устройств, идентификация, поиск путей — 1-1,5 часа

5. Накат Solaris с инсталл-сервера — 1,5-2 часа… внутренняя сетка небыстрая.

кстати, когда настраиваете интерфейсы в suninstall нужно сконфигурить интерфейс dman0, иначе инсталляция не пойдет.

6. Конфигурение солярися (мирроринг бут-девайсов, накат патчей, установка доп-ПО) — 5-6 часов на домен.

Многие дела можно делать паралельно на нескольких доменах, но время лучше не экономить.

В итоге, среднее время для приведения 25К к боевой готовности — 3 дня не меньше. При планировании инсталляций лучше отталкиваться от таких величин, чем опаздывать к запланированному времени запуска в продуктив.

Паника ядра в Solaris бывает очень редко, но… всякое бывает. А если вы сами пишете драйвера или экпериментируете с OpenSolaris, то может это событие и нередкое ;) Итак, сервер сбросил корку (/var/crash/`hostname`/unix.* и /var/crash/`hostname`/vmcore.*)
Что использовать для анализа дампа памяти после паники?

Инструмент Комментарии
mdb (Solaris Modular Debugger) Уже установлен в Solaris. Пакеты SUNWmdbr,SUNWmdb
MDeBug: An MDB-Based Debugging Tool for the Solaris 8 and 9 OS Скрипт, выполняющий стандартный набор запросов к mdb. Работает в режиме диалога.
ACT — «crash dump analyzer». Находится на EIS-DVD. Немножко бестолково генерит информацию. Позволяет разделить информацию, на несколько файлов (threads, summary, biowait итд ) Запускается /opt/CTEact/bin/act -s /tmp/my_analyze -n unix.0 -d vmcore.0
SolarisCAT Инструмент суперский, отлично задокументирован, на каждую команду написан подробнейший хелп. Из дампа можно выжать все, что только можно представить. Делали разработчики ядра Solaris, поддерживает различные фенички Solaris10, типа zones итд

Несколько ссылок в тему:

UPD: 20090709

Управлять ленточными приводами и роботом ленточной библиотеки под управлением NetBackup можно с помощью команд vmoprcmd и robtest. Например, воспользуемся библиотекой, чтобы считать информацию с ленточки из под ОС.

посмотреть статус ленточных приводов
vmoprcmd -dp

опустить привод под номером 10 (NetBackup не будет его использовать)
vmoprcmd -down 10

robtest
( выбрать библиотеку )
s p ( смотреть статус ленточек в mailslot )
s d ( смотреть статус ленточек в приводах )
s s ( смотреть статус ленточек в слотах библиотеки )
m p1 d3 (переместить ленту из mailslot 1 в привод номер 3)
q (выйти из robtest)

Внимание! Не оставляйте запущенную утилиту robtest, она мешает нормальной работе NetBackup. Обязательно выходите из нее.

выполняете с ленточкой команды из-под под ОС
mt -f /dev/rmt/6cbn rewind
tar xf /dev/rmt/6cbn

# отключаете использование ленточки в ОС
mt -f /dev/rmt/6cbn offline

снова через robtest переносите ленточку и возвращаете снова привод под управление NetBackup.
поднять привод под номером 10 (NetBackup будет его использовать дальше)
vmoprcmd -up 10

Ссылки по теме:
Supplemental Information to Media Manager System Administrator’s Guide for Automated Cartridge System Library Software

Вообще, инкапсулировать загрузочные диски под управление vxvm следует только, если вы собираетесь их зазеркалить. Если же, такой цели не стоит (например, есть в наличии аппаратный raid-контроллер на внутренние диски), то не стоит городить огород.

Инкапсуляция (rootability, как это теперь называется) запускается командой
# vxdiskadm
Читать полностью »

Как разобраться, хватает ли нам процессорных мощностей и где тот параметр, который нам укажет, что процессора не тянут те задачи, которые мы им вешаем?
Читать полностью »

Для повышения надежности сетевых соединений в Solaris можно использовать link aggregations или IPMP. Ниже по тексту — шпаргалка по IPMP.
Читать полностью »

Для повышения надежности сетевых соединений в Solaris можно использовать «link aggregations» или IPMP. Ниже по тексту — шпаргалка по «link aggregations».

В Solaris 10 появилась возможность объединять физические интерфейсы в один логический интерфейс (link aggregations). Tочнее, эта возможность была и ранее, но использовался дополнительный продукт — SunTruncking, теперь эта возможность есть по умолчанию. Для чего это нужно:

  • Увеличивается пропускная способность
  • Load balancing
  • Повышается надежность за счет резервных сетевых интерфейсов
  • Упрощается администрирование
  • Уменьшается пул необходимых ip-адресов

Необходимые условия для организации link aggregations:

  • сетевые коммутаторы должны поддерживать link aggregation control protocol (LACP). Смотрите документацию по по вашим коммутаторам.
  • на сервере могут объединяться интерфейсы с поддержкой GLDv3. Сейчас это интерфейсы xge, e1000g, и bge. (здесь список более полный)
  • все интерфейсы должны быть в full duplex mode и работать с одной скоростью.
  • переменная obp local-mac-address? должна быть установлена в true ( # eeprom local-mac-address?=true )

Читать полностью »