Путь для установленного DeviceManger (HDvM):
http://host:23015/DeviceManager/

Путь для установленного Storage Navigator Modular 2 (SNM2):
http://host:23015/StorageNavigatorModular/

Оба продукта должны быть установлены на один хост.
Если предполагается использовать старые модульные массивы (9200,9500, ams), то необходимо запустить скриптик /opt/HiCommand/HiCommandServer/tools/launchapptool.sh
Не забыть добавить нового пользователя с админскими правами на модульном массиве и при добавлении массива в HDvM использовать именно его (пользователя root использовать нельзя).

Остановить/запустить сервисы HDvM:
/opt/HiCommand/Base/bin/hcmdssrv { -start | -stop | -check | -status }

Агент HDvM :
При установке агента лучше не менять логин/пароль (HaUser/haset)
Остановить/запустить агента:
/opt/HDVM/HBaseAgent/bin/hbsasrv { start | stop [-f] | status }

При резервном копировании с ZFS в несколько потоков выяснилась такая вещь, что читается с дисков заметно больше чем пишется на ленты:

# iostat -xnz 3 | egrep 'ABCF|rmt'
...
683.7 0.0 87239.8 0.0 0.0 9.9 0.0 14.5 1 100 c12t600C0FF0000000000ABCF1150B265F00d0
0.0 50.3 0.0 12887.6 0.0 0.1 0.0 1.9 0 10 rmt/1
0.0 109.1 0.0 27926.0 0.0 0.2 0.0 2.1 0 23 rmt/2
691.9 0.0 88372.5 0.0 0.0 9.9 0.0 14.4 1 100 c12t600C0FF0000000000ABCF1150B265F00d0
0.0 59.2 0.0 15146.3 0.0 0.1 0.0 2.0 0 12 rmt/1
0.0 112.1 0.0 28692.7 0.0 0.2 0.0 1.9 0 22 rmt/2

Статистика по zpool iostat показывает тоже самое — чтение с пула идет 80-90МБ. При этом суммарная запись на ленты — раза в два меньше. Куда деваются считанные данные???? ;)
Читать полностью »

На новых x86 (типа sun netra x2270, x4170, x4270, x4275, x6275 итд ) серверах есть возможность сконфигурировать доступ к service processor не черз «NET MGT port», а через порт встроенного контроллера:
подробности, первоисточник
Интересная возможность, хотя непонятно, как будет это работать в случае проблем с питание на сервере или в сетевой инфраструктуре. Как мне кажется — сомнительная экономия на один сетевой порт может обернуться несколькими походами ночью в датацентр. Если по правильному — лучше всего физически развязанные интерфейсы для продуктива и управления.

1. Как установить Solaris с jumpstart-а

Неожидано не получилось поставить flar-архив с помощью liveupgrade на zfs — luupgrade выводил глупые ошибки, так что решено было установить flar zfs с помощью jumpstart:

Рабочий профиль, создает zfs-пул, имя и разбивку по файловым системам берет из flar-архива, игнорирует часть информации ключевых слов pool и bootenv

install_type flash_install
bootenv installbe bename s10_3 dataset /var
archive_location nfs 192.168.2.226:/myshare/flars/s10.flar
partitioning explicit
pool rpool auto 64g auto c0t1d0s0

Если нужно сразу создать загрузочное zfs-зеркало:

install_type flash_install
archive_location nfs 192.168.2.226:/myshare/flars/s10.flar
partitioning explicit
pool rpool auto auto auto mirror c0t0d0s0 c0t1d0s0

Download profile-zfs-flar-sample

Ссылки:
Про то, что install_type flash_install на zfs не работает (а, на самом деле работает)
Installing a ZFS Root File System (Oracle Solaris Flash Archive Installation)

installboot

03.11.2010

После зеркалирования загрузочных дисков на solaris не забываем о bootblock (ну чтобы если что загрузиться с зеркала)!
Технология при переходе от svm/ufs к zfs не изменилась:
sparc ufs:
metainit d11 c0t1d0s0
metattach d0 d11
cd /usr/platform/`uname -m`/lib/fs/ufs
installboot -F ufs bootblk /dev/rdsk/c0t1d0s0

sparc zfs:
zpool attach rpool c0t0d0s0 c0t1d0s0
cd /usr/platform/`uname -m`/lib/fs/zfs
installboot -F zfs bootblk /dev/rdsk/c0t1d0s0

x86:
installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c0t1d0s0

Несколько полезных инструментов по жестким дискам и массивам:

Обновление vxvm при LU:

Читать полностью »

При переходе с ufs на zfs на есть только одна засада — нужно чтобы загрузочный диск имел SMI лэйбл и новый zpool располагался на слайсе (для порядка — лучше всего на слайсе 0).
Итак, если нужно перелэйбливаем диск и удаляем ненужные разделы.

Создаем слайс 0 размером с весь диск:
Читать полностью »

Процедура измения размера раздела подкачки на ZFS подробно описана в документации, за исключением одного момента, который может в определенной ситуации стать фатальным для файловой системы.
И так порядок действий по документации:

# zfs list rpool/swap
NAME         USED  AVAIL  REFER  MOUNTPOINT
rpool/swap    2.066G   122G    16K  -
# swap -d /dev/zvol/dsk/rpool/swap
# zfs set volsize=96G rpool/swap
# swap -a /dev/zvol/dsk/rpool/swap
# zfs list rpool/swap
NAME         USED  AVAIL  REFER  MOUNTPOINT
rpool/swap    2.066G   122G    16K  -

Читать полностью »

В продолжение этой заметки — та же задача, для x86-й версии соляриса.

Идеология немного другая — вначале создаём MBR-раздел на сыром диске,  и уже в нём нарезаем привычные слайсы.

1. Создаём раздел с помощью fdisk. Raw-устройство в формате cxtxdxpx:

fdisk -B /dev/rdsk/c0t0d0p0

2. Создаём слайс(ы) с помощью format, либо копируем их посредством fmthard. В качестве аргументов нужно уже использовать формат cxtxdxsx:

echo label | format /dev/rdsk/c0t0d0s2
prtvtoc /dev/rdsk/c0t0d0s4 | fmthard -s - /dev/rdsk/c1t0d0s4