powered by simpleCommunicator - 2.0.61     © 2026 Programmizd 02
Целевая тема:
Создать новую тему:
Автор:
Закрыть
Цитировать
Форумы / Unix-системы [игнор отключен] [закрыт для гостей] / Solaris Cluster + Oracle 11g disk config
25 сообщений из 46, страница 1 из 2
Solaris Cluster + Oracle 11g disk config
    #36496799
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Всем привет!
Сразу оговорюсь, я новичок в Solaris Cluster и Oracle, так что прошу сильно не пинать, если вопрос уж очень глупый. Ситуация примерно такая: внутри ESXi хочу поднять кластер на две ноды на солярисе, на котором будет крутиться оракл 11g r1. "Sun Cluster Data Service for Oracle Guide for Solaris OS" почитал, но не до конца понял, обязательно ли конфигурировать cluster file system для датафайлов оракла, или можно в случае тестовой инсталляции тупо взять лун, который будет показываться обоим нодам, отформатируется в UFS один раз на этапе инсталляции, скажем, первой ноды и монтироваться в /u02 на обоих нодах?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36498019
Фотография Ося
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
нет
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36498637
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
cluster fs (aka pxfs) не только не нужен, но и не поддерживается для работы Oracle.
LUN надо отдать под контроль volume manager'а.

Для начала есть неплохая книга в комплекте документации:
http://docs.sun.com/app/docs/doc/820-4989/chapter1-1?l=en&a=view

Sun Cluster Quick Start Guide for Solaris OS
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36502103
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Мутаген,

Спасибо!
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36528671
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Решил не создавать дополнительную тему, дабы не плодить лишние сущности :). Сделал всё по мануалу Quick Start Guide, но на этапе конфигурирования lvm возникла проблема:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
# /usr/cluster/bin/cldevice show

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d1
  Full Device Path:                                suncluster- 2 :/dev/rdsk/c0t0d0
  Replication:                                     none
  default_fencing:                                 global

DID Device Name:                                /dev/did/rdsk/d2
  Full Device Path:                                suncluster- 2 :/dev/rdsk/c1t0d0
  Replication:                                     none
  default_fencing:                                 global

DID Device Name:                                /dev/did/rdsk/d3
  Full Device Path:                                suncluster- 1 :/dev/rdsk/c1t1d0
  Full Device Path:                                suncluster- 2 :/dev/rdsk/c1t1d0
  Replication:                                     none
  default_fencing:                                 global

DID Device Name:                                /dev/did/rdsk/d4
  Full Device Path:                                suncluster- 1 :/dev/rdsk/c1t2d0
  Full Device Path:                                suncluster- 2 :/dev/rdsk/c1t2d0
  Replication:                                     none
  default_fencing:                                 global

DID Device Name:                                /dev/did/rdsk/d5
  Full Device Path:                                suncluster- 1 :/dev/rdsk/c0t0d0
  Replication:                                     none
  default_fencing:                                 global

DID Device Name:                                /dev/did/rdsk/d6
  Full Device Path:                                suncluster- 1 :/dev/rdsk/c1t0d0
  Replication:                                     none
  default_fencing:                                 global


/dev/did/rdsk/d4 - LUN на 2Gb для данных оракла, так что его и конфигурируем.

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
# /usr/cluster/bin/cldevicegroup switch -n suncluster- 1  oraset
# metaset -s oraset -a /dev/did/rdsk/d4
# metaset -s oraset

Set name = oraset, Set number =  1 

Host                Owner
  suncluster- 1        Yes
  suncluster- 2        

Driv Dbase

d4   Yes  

Дальше, в мануале сказано изменить /etc/lvm/md.tab. Добавил следующие строчки:

Код: plaintext
1.
2.
3.
4.
        oraset/d2       -m oraset/d12
        oraset/d12       1   1  /dev/did/rdsk/d4s0
        oraset/d0       -p oraset/d2 3G
        oraset/d1       -p oraset/d2 3G

Не до конца уверен, что надо брать d4s0 (в мануале несколько по-другому, но, насколько я понял, там опечатка и перепутали примеры, стр. 32, если что - How to create and activate md.tab file), но я вписал именно его. Дальше получаю ошибку:
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
# /usr/cluster/bin/cldevicegroup switch -n suncluster- 1  oraset
# metainit -s oraset -a
metainit: suncluster- 1 : /etc/lvm/md.tab line  59 : oraset/d2: unit already set up

metainit: suncluster- 1 : /etc/lvm/md.tab line  60 : oraset/d12: unit already set up

metainit: suncluster- 1 : /etc/lvm/md.tab line  61 : oraset/d0: not enough space available for request

metainit: suncluster- 1 : /etc/lvm/md.tab line  62 : oraset/d1: not enough space available for request

Чую, что сделал какую-то глупость, но не могу понять - где именно :(.
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36529120
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Ну, там в одном месте 2 ГБ, а во втором - 3 Гб. Логично, что места не хватает
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36529219
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Я, честно говоря, не совсем понимаю "физический смысл" последних двух строчек. В мануале написано следующая конфигурация:
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
apacheset/d0 -m apacheset/d10
apacheset/d10  1   1  /dev/did/rdsk/d3s0
nfsset/d1 -m nfsset/d11
nfsset/d11  1   1  /dev/did/rdsk/d4s0
oraset/d2 -m oraset/d12
oraset/d12  1   1  /dev/did/rdsk/d5s0
oraset/d0 -p oraset/d2 3G
oraset/d1 -p oraset/d2 3G

Можно прояснить - какая смысловая нагрузка на последние две строчки и почему их тогда не добавили для первых двух сетов?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36529280
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
эти строчки создают на диске две партиции (soft partitions) по 3 ГБ. Добавили их чтобы разнести бинарники ораклка (ORACLE_HOME) и данные оракла, потому что они их монтируют потом с разными параметрами - для данных включают forcedirectio.

Я бы не стал заморачиваться с софтпартициями, а просто сделал бы два LUNf на массиве.
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36530040
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Я не совсем понял один момент: бинарники оракла должны тоже сидеть в shared LUNе? И ещё один вопрос: что посоветуете почитать насчёт конфигурирования lvm применительно к данному случаю (что-то вроде курса молодого бойца, что бы не отвлекаться от главной темы :) )?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36531535
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Там они ставят на общий LUN, что в общем логично.
Что касается LVM, в System administration collection от solaris10 есть отдельная книга про него. Но по большому счёту, всё нужное описано в man metainit и metaset
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36532513
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
То есть, я правильно понял, что установка oracle_home в общий LUN - средство избежать многократных (кратных количеству нод в кластере) установок и настроек оракла, так?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36540769
Фотография GL
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
z3r0c0l,

Так, но в случае апгрейда придётся останавливать всё. В случае, когда софт стоит на локальных дисках, можно накатывать патчи на ноды по очереди, не останавливая базу. Что, на мой взгляд, значительно удобнее...
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36541770
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
GL,

Понятно, спасибо за информацию.

Поставил оракл (/u01/app/oracle), создал базу данных (/u02/oradata), всё лежит, как и сказано в документации, на шаред луне:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
# cat /etc/vfstab 
#device device  mount   FS      fsck    mount   mount
#to     mount   to      fsck            point           type    pass    at boot options
#                       
fd      -       /dev/fd fd      -       no      -
/proc   -       /proc   proc    -       no      -
/dev/dsk/c1t0d0s1       -       -       swap    -       no      -
/dev/dsk/c1t0d0s0       /dev/rdsk/c1t0d0s0      /       ufs      1        no      -
/dev/dsk/c1t0d0s7       /dev/rdsk/c1t0d0s7      /export/home    ufs      2        yes     -
#/dev/dsk/c1t0d0s3      /dev/rdsk/c1t0d0s3      /globaldevices  ufs      2        yes     -
/devices        -       /devices        devfs   -       no      -
sharefs -       /etc/dfs/sharetab       sharefs -       no      -
ctfs    -       /system/contract        ctfs    -       no      -
objfs   -       /system/object  objfs   -       no      -
swap    -       /tmp    tmpfs   -       yes     -
/dev/did/dsk/d5s3 /dev/did/rdsk/d5s3 /global/.devices/node@ 2  ufs  2  no global
/dev/md/oraset/dsk/d0 /dev/md/oraset/rdsk/d0 /u01/app/oracle ufs  2  no logging
/dev/md/oraset/dsk/d1 /dev/md/oraset/rdsk/d1 /u02/oradata ufs  2  no logging,forcedirectio

тот же vfstab - на второй ноде, куда, разумеется, я ничего не ставил. Начал поднимать HA-агент для оракла, всё делал по дефолту, в качестве общего ресурса взял запись из cluster /etc/hosts (одинаковый на обоих нодах):

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
# cat /etc/hosts
#
# Internet host table
#
:: 1      localhost       
 127 . 0 . 0 . 1        localhost       
 172 . 30 . 8 . 102     suncluster- 1     loghost
 172 . 30 . 8 . 103     suncluster- 2  # Cluster Node
 172 . 30 . 8 . 51      cluster # virtual ip for cluster

в итоге, визард сдох на последнем этапе, выведя ошибку от второй ноды, где указывалось на невозможность записать лог в /u01/app/oracle/..... Зашёл на вторую ноду, в /u01/app/oracle ничего не было:
Код: plaintext
1.
2.
-bash- 3 . 00 $ ls -l
total  0 
-bash- 3 . 00 $ 

Сказал ему mount /u01/app/oracle и заодно /u02/oradata, содержимое увидел. Начал визард снова, но он упал с другой ошибкой. Дальше интереснее: зашёл на первую ноду, где и /u01 и /u02 были видны изначально (иначе оракл не встал бы) и теперь вижу следующее:
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
# cd app/oracle/
# ls -l 
total  0 
# cd /u02/oradata 
# ls -l
total  0 
# mount /u01/a
admin/ app/   
# mount /u01/app/oracle 
mount: No such device
mount: Cannot mount /dev/md/oraset/dsk/d0
# mount /u02/oradata   
mount: /dev/md/oraset/dsk/d1 is already mounted or /u02/oradata is busy
# mount
/ on /dev/dsk/c1t0d0s0 read/write/setuid/devices/intr/largefiles/logging/xattr/onerror=panic/dev= 800000  on Thu Mar  25   12 : 08 : 58   2010 
/devices on /devices read/write/setuid/devices/dev=47c0000 on Thu Mar  25   12 : 08 : 46   2010 
/system/contract on ctfs read/write/setuid/devices/dev= 4800001  on Thu Mar  25   12 : 08 : 46   2010 
/proc on proc read/write/setuid/devices/dev= 4840000  on Thu Mar  25   12 : 08 : 46   2010 
/etc/mnttab on mnttab read/write/setuid/devices/dev= 4880001  on Thu Mar  25   12 : 08 : 46   2010 
/etc/svc/volatile on swap read/write/setuid/devices/xattr/dev=48c0001 on Thu Mar  25   12 : 08 : 46   2010 
/system/object on objfs read/write/setuid/devices/dev= 4900001  on Thu Mar  25   12 : 08 : 46   2010 
/etc/dfs/sharetab on sharefs read/write/setuid/devices/dev= 4940001  on Thu Mar  25   12 : 08 : 46   2010 
/lib/libc.so. 1  on /usr/lib/libc/libc_hwcap1.so. 1  read/write/setuid/devices/dev= 800000  on Thu Mar  25   12 : 08 : 57   2010 
/dev/fd on fd read/write/setuid/devices/dev=4ac0001 on Thu Mar  25   12 : 08 : 58   2010 
/tmp on swap read/write/setuid/devices/xattr/dev=48c0002 on Thu Mar  25   12 : 09 : 03   2010 
/var/run on swap read/write/setuid/devices/xattr/dev=48c0003 on Thu Mar  25   12 : 09 : 03   2010 
/export/home on /dev/dsk/c1t0d0s7 read/write/setuid/devices/intr/largefiles/logging/xattr/onerror=panic/dev= 800007  on Thu Mar  25   12 : 09 : 19   2010 
/global/.devices/node@ 1  on /dev/did/dsk/d2s3 read/write/setuid/devices/intr/largefiles/logging/noquota/global/xattr/nodfratime/onerror=panic/dev=3bc0043 on Thu Mar  25   12 : 09 : 26   2010 
/global/.devices/node@ 2  on /dev/did/dsk/d5s3 read/write/setuid/devices/intr/largefiles/logging/noquota/global/xattr/nodfratime/onerror=panic/dev=3bc00a3 on Thu Mar  25   12 : 09 : 26   2010 
/home/oracle on /export/home/oracle read/write/setuid/devices/dev= 800007  on Thu Mar  25   12 : 10 : 58   2010 
# umount /u01/app/oracle 
umount: warning: /u01/app/oracle not in mnttab
umount: /u01/app/oracle not mounted
# umount /u02/oradata   
umount: warning: /u02/oradata not in mnttab
umount: /u02/oradata not mounted

в общем, наблюдается какая-то ерунда: /u01 и /u02 пустые, монтироватьсяв них ничего не хочет... подозреваю, что я напортачил что-то во время одновременного монтирования файловых систем на обе ноды, но перезагрузка обеих нод ничего не дала. Придётся делать newfs и ставить всё заново?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36542322
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Оно, похоже, отдало куда-то метасет и не хочет возвращать.
постите сюда cluster status
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36542433
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Мутаген,

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
64.
65.
66.
67.
68.
69.
70.
71.
72.
73.
74.
75.
76.
77.
78.
79.
80.
81.
82.
83.
84.
85.
86.
87.
88.
89.
90.
91.
92.
# /usr/cluster/bin/cluster status

=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
suncluster- 2                                     Online
suncluster- 1                                     Online


=== Cluster Transport Paths ===

Endpoint1               Endpoint2               Status
---------               ---------               ------
suncluster- 2 :e1000g2    suncluster- 1 :e1000g2    Path online
suncluster- 2 :e1000g1    suncluster- 1 :e1000g1    Path online


=== Cluster Quorum ===

--- Quorum Votes Summary from latest node reconfiguration ---

            Needed   Present   Possible
            ------   -------   --------
             2          3           3 


--- Quorum Votes by Node (current status) ---

Node Name         Present      Possible      Status
---------         -------      --------      ------
suncluster- 2        1              1              Online
suncluster- 1        1              1              Online


--- Quorum Votes by Device (current status) ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------
d3                 1              1              Online


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name   Primary        Secondary      Status
-----------------   -------        ---------      ------
oraset              suncluster- 2    suncluster- 1    Online


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
oraset              -             -                -


--- Multi-owner Device Group Status ---

Device Group Name           Node Name           Status
-----------------           ---------           ------

=== Cluster Resource Groups ===

Group Name       Node Name       Suspended      State
----------       ---------       ---------      -----

=== Cluster Resources ===

Resource Name       Node Name       State       Status Message
-------------       ---------       -----       --------------

=== Cluster DID Devices ===

Device Instance           Node                  Status
---------------           ----                  ------
/dev/did/rdsk/d2          suncluster- 2           Ok

/dev/did/rdsk/d3          suncluster- 1           Ok
                          suncluster- 2           Ok

/dev/did/rdsk/d5          suncluster- 1           Ok


=== Zone Clusters ===

--- Zone Cluster Status ---

Name    Node Name    Zone HostName    Status    Zone Status
----    ---------    -------------    ------    -----------

Вот.
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36542552
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Вроде нормально всё. А визард чего писал?
А /etc/lvm/md.tab везде одинаковые?
И /etc/hosts тоже одинаковые?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36542695
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Мутаген,
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
-bash- 3 . 00 $ cat /etc/lvm/md.tab 
======suncluster- 1  md.tab=========

        oraset/d2       -m oraset/d12
        oraset/d12       1   1  /dev/did/rdsk/d3s0
        oraset/d0       -p oraset/d2 3G
        oraset/d1       -p oraset/d2 3G
==============================

-bash- 3 . 00 $ cat /etc/lvm/md.tab 
======suncluster- 1  md.tab=========

        oraset/d2       -m oraset/d12
        oraset/d12       1   1  /dev/did/rdsk/d3s0
        oraset/d0       -p oraset/d2 3G
        oraset/d1       -p oraset/d2 3G
==============================

-bash- 3 . 00 $ cat /etc/hosts
#
# Internet host table
#
:: 1      localhost       
 127 . 0 . 0 . 1        localhost       
 172 . 30 . 8 . 102     suncluster- 1     loghost
 172 . 30 . 8 . 103     suncluster- 2  # Cluster Node
 172 . 30 . 8 . 51      cluster # virtual ip for cluster

-bash- 3 . 00 $ cat /etc/hosts
#
# Internet host table
#
:: 1      localhost       
 127 . 0 . 0 . 1        localhost       
 172 . 30 . 8 . 103     suncluster- 2     loghost
 172 . 30 . 8 . 102     suncluster- 1  # Cluster Node
 172 . 30 . 8 . 51      cluster # virtual ip for cluster


Запустил визард ещё раз, ошибка теперь другая (визард не дошёл до месте, где умер в прошлый раз):

Код: plaintext
The Oracle home directory does not contain the required Oracle files. To use the directory that you specified, click Next.

Что, собственно, логично - /u01 нормально не монтируется ls ничего не показывает.
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36542823
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Раз кластера всеравно пока нет, то активируйте метасет вручную.

Код: plaintext
metaset -t oraset

и можно будет монтировать ФС
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36543797
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Мутаген,

Насчёт похищения метасета:
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
# metaset 

Set name = oraset, Set number =  1 

Host                Owner
  suncluster- 1        
  suncluster- 2        

Driv Dbase

d3   Yes  
# metaset -s oraset -t
# metaset

Set name = oraset, Set number =  1 

Host                Owner
  suncluster- 1        Yes
  suncluster- 2        

Driv Dbase

d3   Yes
# mount /u01/app/oracle 
# mount /u02/oradata   
# cd /u01/app/oracle   

То есть, метасет действительно куда-то потерялся... Поставил оракл заново, так как уже успел сделать newfs, создал базу в /u02. Так как в документации не сказано, что надо запускать базу, я оставил всё по дефолту, em показал, что база в дауне. Дальше делал всё по документации, визард нашёл базу. В поле Alert_log_file ввёл "/u01/app/oracle" - вопреки документации, но, думаю, это не смертельно. Правда, по ходу визарда я вспомнил, что забыл смонтировать на второй ноде /u01 и /u02. Отменил визард, попытался смонтировать, получил вот это:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
# mount /u01/app/oracle
mount: No such device
mount: Cannot mount /dev/md/oraset/dsk/d0
# metaset 

Set name = oraset, Set number =  1 

Host                Owner
  suncluster- 1        
  suncluster- 2        

Driv Dbase

d3   Yes  
# metaset -s oraset -t
metaset: failed to notify DCS of take
# metaset

Set name = oraset, Set number =  1 

Host                Owner
  suncluster- 1        
  suncluster- 2        

Driv Dbase

d3   Yes  
# /usr/cluster/bin/scstat -D

-- Device Group Servers --

                         Device Group        Primary             Secondary
                         ------------        -------             ---------
  Device group servers:  oraset              suncluster- 1         suncluster- 2 


-- Device Group Status --

                              Device Group        Status              
                              ------------        ------              
  Device group status:        oraset              Online


-- Multi-owner Device Groups --

                              Device Group        Online Status
                              ------------        -------------
в общем, получается какая-то ерунда, oraset вроде в онлайне, первая нода считает, что она владелец, а вторая вообще не понимает, кто владелец...
Экстремальные меры тоже не помогли:
Код: plaintext
1.
# metaset -s oraset -t -f
metaset: failed to notify DCS of take
Перезагрузил обе ноды, посмотрел на metaset на первой:
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
# metaset

Set name = oraset, Set number =  1 

Host                Owner
  suncluster- 1        
  suncluster- 2        

Driv Dbase

d3   Yes  
На второй - то же самое. То есть владелец опять потерялся. Что за ерунда?!
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36543953
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Ну, файловая система UFS должна быть замонтирована на одном узле. И только так.
Иначе она развалиться.

Соответственно, метасет может быть активирован (taken) только одним узлом, так что всё правильно.
Когда всё настроится, кластер будет его активировать, монтировать ФС, пускть оракл и тд.

Насчёт Alert log не понял - так жалко ему сказать полный путь чтоли? Если неполучается его найти, то по дефолту он будет в $ORACLE_HOME/admin/bdump/alert_${ORACLE_SID}.log. Я подозреваю если его не указать, то визард там и остановиться с ошибкой: он небось может отличить каталог от файла с логом.

Там, кстати, визарду понадобиться ещё и пользователь в Oracle. Его завели?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36550181
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Мутаген,

По-видимому я в ходе экспериментов напортачил в конфигах, визард валился, даже если всё правильно указать. Я переставил всё с нуля, но заметил странную вещь: metaset после перезагрузки теряет овнера. И если не сказать metaset -s oraset -t то mount не работает. Так и должно быть?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36550376
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Мутаген,

Да, после переустановки заново, визард вывалился с ошибкой:
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
The following Sun Cluster commands were run 

Configuration commands...

/usr/cluster/bin/clresourcegroup create -p nodelist=node- 2 ,node- 1  oracle-rg 

/usr/cluster/bin/clresourcetype register SUNW.HAStoragePlus: 8  

/usr/cluster/bin/clresource create -t SUNW.HAStoragePlus: 8  -g oracle-rg -p FilesystemMountPoints=/u01/app,/u02/oradata -p GlobalDevicePaths=oraset u01_app_u02_oradata-rs 

/usr/cluster/bin/clresourcegroup online -emM oracle-rg 

/usr/cluster/bin/clreslogicalhostname create -g oracle-rg -h clmain -N sc_ipmp0@node- 2 ,sc_ipmp0@node- 1  clmain-rs 

/usr/cluster/bin/clresourcegroup online -emM oracle-rg 

/usr/cluster/bin/clresource create -t SUNW.oracle_server: 6  -g oracle-rg -p Resource_dependencies=clmain-rs,u01_app_u02_oradata-rs -p ORACLE_HOME=/u01/app -p ORACLE_SID=db -p Alert_log_file=/u01/app/rdbms/log/alert_db.log -p Connect_string=oracle/P@ssw0rd -p Debug_level= 1  oracle_serverdb-rs


Unable to roll back commands


/usr/cluster/bin/clresource disable u01_app_u02_oradata-rs

clresource:  (C983921) Skipping resource u01_app_u02_oradata-rs because its resource group oracle-rg is undergoing a reconfiguration.

Кстати, после работы визарда em стал недоступен. Сама база была в оффлайне в момент его работы (т.к. в документации не сказано, что её надо переводить в онлайн и визард её находил) - это могло повлиять на процесс создания кластера?
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36550446
Мутаген
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
То, что метасет после ребута недоступен - это так и должно быть, его либо кластер должен активировать, либо другой какой метод. Сам он не будет подниматься.

Почему разваливается визард я не понял, там точно не было никаких больше сообщений об ошибке?
И смущает меня путь до alert.log.

Постите cluster status снова, давайте смотреть чего там визард сделал.
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36550506
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Мутаген,

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
64.
65.
66.
67.
68.
69.
70.
71.
72.
73.
74.
75.
76.
77.
78.
79.
80.
81.
82.
83.
84.
85.
86.
87.
88.
89.
90.
91.
92.
93.
94.
95.
96.
97.
98.
99.
100.
101.
102.
103.
104.
105.
106.
# /usr/cluster/bin/cluster status 

=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
node- 2                                           Online
node- 1                                           Online


=== Cluster Transport Paths ===

Endpoint1               Endpoint2               Status
---------               ---------               ------
node- 2 :e1000g2          node- 1 :e1000g2          Path online
node- 2 :e1000g1          node- 1 :e1000g1          Path online


=== Cluster Quorum ===

--- Quorum Votes Summary from latest node reconfiguration ---

            Needed   Present   Possible
            ------   -------   --------
             2          3           3 


--- Quorum Votes by Node (current status) ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
node- 2            1               1               Online
node- 1            1               1               Online


--- Quorum Votes by Device (current status) ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------
d3                 1              1              Online


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary     Secondary     Status
-----------------     -------     ---------     ------
oraset                node- 2       node- 1         Online


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
oraset              -             -                -


--- Multi-owner Device Group Status ---

Device Group Name           Node Name           Status
-----------------           ---------           ------

=== Cluster Resource Groups ===

Group Name       Node Name       Suspended      State
----------       ---------       ---------      -----
oracle-rg        node- 2           No             Offline
                 node- 1           No             Offline


=== Cluster Resources ===

Resource Name             Node Name   State     Status Message
-------------             ---------   -----     --------------
u01_app_u02_oradata-rs    node- 2       Offline   Offline
                          node- 1       Offline   Offline

clmain-rs                 node- 2       Offline   Offline - LogicalHostname offline.
                          node- 1       Offline   Offline - LogicalHostname offline.

oracle_serverdb-rs        node- 2       Offline   Offline
                          node- 1       Offline   Offline


=== Cluster DID Devices ===

Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d2             node- 2              Ok

/dev/did/rdsk/d3             node- 1              Ok
                             node- 2              Ok

/dev/did/rdsk/d5             node- 1              Ok


=== Zone Clusters ===

--- Zone Cluster Status ---

Name    Node Name    Zone HostName    Status    Zone Status
----    ---------    -------------    ------    -----------


Да, в данный момент отпять отвалился овнер от метасета:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
# metaset

Set name = oraset, Set number =  1 

Host                Owner
  node- 1              
  node- 2              

Driv Dbase

d3   Yes  
Его опять надо -s oraset -t перед запуском визарда?

Собственно, перед тем как попробовать визард ещё раз, хочу уточнить: монтировать вручную /u01 и /u02 перед выполнением визарда надо, или он сам сообразит? Кроме того, я так понял, надо бы почистить кластер от ресурс-групп и ресурсов, котрорые там сейчас остались, перед запуском визарда, так?
Что касается ошибок, я скопировал полный аутпут команды, то есть, вроде бы больше не было ничего. Насчёт alert_log, визард его сам обнаружил, я проверил, файл присутствовал.
...
Рейтинг: 0 / 0
Solaris Cluster + Oracle 11g disk config
    #36550520
z3r0c0l
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Да, небольшое допролнение:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
-bash- 3 . 00 $ cat /etc/hosts
#
# Internet host table
#
:: 1      localhost       
 127 . 0 . 0 . 1        localhost       
 172 . 30 . 8 . 103     node- 2   loghost
 172 . 30 . 8 . 103     node- 2 
 172 . 30 . 8 . 51      clmain
Это к вопросу о clmain-rs
...
Рейтинг: 0 / 0
25 сообщений из 46, страница 1 из 2
Форумы / Unix-системы [игнор отключен] [закрыт для гостей] / Solaris Cluster + Oracle 11g disk config
Найденые пользователи ...
Разблокировать пользователей ...
Читали форум (0):
Пользователи онлайн (0):
x
x
Закрыть


Просмотр
0 / 0
Close
Debug Console [Select Text]