|
|
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
эээ... Ещё небольшое дополнение - судя по всему, ошибка была в /etc/hosts на второй ноде, там не была первая нода. Это могло повлиять на визард? Если да, то, соответственно, что надо почистить, что бы запустить его ещё раз? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 14:05 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
В общем, я попробовал сделать всё заново и 1) активировал metaset 2) подмонтировал /u01 /u02 3) удалил ресурсы кластера, поправил /etc/hosts на второй ноде 4) проверил наличие alert_log: Код: plaintext 1. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. Подозреваю, что что-то недоудалил в начале :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 14:53 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Попробовал сделать ещё раз, только не через визард, а вручную через консоль. С каждым шагом "всё страньше и страньше" (ц) Винни-Пух: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. Я попробовал поменять местами Код: plaintext Код: plaintext 1. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 16:14 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
этот варнинг нестрашный, это просто тупит визард, нет нужды там звать clrg online так часто. Покажите нам тут вывод head /u01/app/rdbms/log/alert_db.log и ls -ld /u01/app/bin/oracle ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 17:30 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Код: plaintext 1. 2. 3. 4. 5. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 31.03.2010, 09:57 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Файлы впроде все на месте, хотя и на неожиданном. Я так понимаю, сейчас кластер более-менее работает. То есть, clrg status должна показывать ресурс-группу oracle-rg в состоянии online на одном из узлов. И при переключении её на другой узел (clrg switch -n <nodename> oracle-rg) на втором узле монтируются ФС и поднимается этот IP? Если это так, то я бы попробовал ещё раз просто запустить создание ресурса ораклового. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.04.2010, 20:02 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Созданный ранее кластер погиб в неравном бою с раздолбайством коллег, так что пришлось всё поднять заново. Итак, ноды: node-1, node-2, соответственно, оракл ставится на node-1 и она же подразумевается основной. Каждой ноде виден общий лун c1t1d0 - для самого оракла и базы данных. Содержимое /etc/hosts идентично (ну, с поправкой наличия loghost). Дисковая конфигурация node-1: Код: plaintext 1. 2. node-2: Код: plaintext 1. 2. В скобках два замечания: 1) Я не совсем понял, почему /globaldevices закомментирован в обоих файлах, несмотря на то, что при установке я явно его указывал монтировать... Впрочем, как я понимаю, это не суть важно. 2) И не совсем понятно, почему в одном случае ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.04.2010, 14:38 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Упс... Случайно нажал post :). Сорри, продолжаю: 2) И не совсем понятно, почему в одном случае /dev/did/dsk/d5s3 а в другом - /dev/did/dsk/d2s3 - я так понял, это всё создал сам кластер, так что руками лезть не стал. Далее, статус кластера с node-1: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. и node-2 Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. оракл стоит на первой ноде, в /u01/app база лежит в /u02/oradata на всякий случай вывод с node-1: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. Содержимое /etc/lvm/md.tab: Код: plaintext 1. 2. 3. Теперь идём в веб-интерфейс и сначала создаём highly-available storage. На вопрос "Select Shared Storage Type" из Код: plaintext 1. 2. Код: plaintext 1. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. Communication with the common agent container or the web server lost during command execution. Log out of the Java Web Console, restart the common agent container and the console's web server, and try again." Пояснений никаких нет. Ок, пробую делать сразу, через визард configure Data Services for Applications для Oracle. В визарде выбираю опцию Server and Listener, в качестве Specify Oracle Home Directory визард сам предлагает по умолчанию /u01/app, аналогично на Specify Oracle System Identifier сам же предлагает выбрать db, как SID для ранее созданной базы. Дальше прописываю путь к alert log: /u01/app/admin/db/bdump/alert_db.log и connect string: oracle/P@ssw0rd. Дальше Configure Highly Available Storage Resources, на вопрос Select Shared Storage Type выбираю Both Types. Аналогично предыдущей попытке выбираю /u01 и/u02, выбираю oraset в секции Select global device groups for use by your data files. Получаю сообщение "Added /u01/app,/u02/oradata,oraset to the table of highly available storage resources.". Configure Logical Hostname Resource. Беру из /etc/hosts ранее добавленную запись dbcls и получаю вот такое сообщение: IPMP Group Warning Unable to find suitable IPMP groups for plumbing the hostnames on the specified nodes node-2,node-1. The wizard might be able to create a default IPMP group when there is one adapter configured for the subnet. Click Next to let the wizard create the IPMP groups. Жму Next. Вроде получается: Added dbcls to the table of logical hostname resources. Дальше визард предлагает пересмотреть, что получилось (Review Sun Cluster Objects), оставляю всё так, как создал визард. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. Next. Через минут десять получаю "Configuration of Sun Cluster HA for Oracle failed clresource: (C748634) Resource group oracle-rg failed to start on chosen node and might fail over to other node(s) Non-zero exit status" Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. Дальше вывод с node-1: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. 131. 132. 133. 134. 135. 136. 137. 138. В общем, я в тупике :( ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.04.2010, 15:17 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Код: plaintext 1. 2. 3. 4. 5. Я вот думаю, может быть, я просто занимаюсь ерундой и внутри ESX такая конфигурация просто не будет работать по определению? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2010, 14:11 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
у меня на Virtualbox более-менее работает. Правда, без Oracle и на solaris express (i.e. 11) с Sun cluster express. А cldevicegroup switch делал? И в логах (dmesg) есть чего интересное? И там где вывод cluster check есть чего интересное? Ну и руководство как бы говорит, что сначала редактирование md.tab, metainit и только потом newfs, mount и установка софта. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2010, 14:36 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. Вечерком попробую сделать кластер заново, точно соблюдая последовательность. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2010, 15:08 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
авторApr 5 18:03:18 node-1 Cluster.RGM.global.rgmd: [ID 515159 daemon.notice] method <hafoip_monitor_start> completed successfully for resource <dbcls-rs>, resource group <oracle-rg>, node <node-1>, time used: 0% of timeout <300 seconds> Apr 5 18:03:22 node-1 SC[SUNWscor.oracle_server.start]:oracle-rg:oracle_serverdb-rs: [ID 876834 daemon.error] Could not start server Apr 5 18:03:22 node-1 Cluster.RGM.global.rgmd: [ID 938318 daemon.error] Method <bin/oracle_server_start> failed on resource <oracle_serverdb-rs> in resource group <oracle-rg> [exit code <1>, time used: 0% of timeout <600 seconds>] Это он не может Oracle запустить почему-то. См. файл /var/opt/SUNWscor/oracle_server/message_log.oracle_rg (или как-то там рядом) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 11:06 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
О, а вот в логе очень интересно: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. Насколько я понял, проблемы с авторизацией в оракле. Вопрос: я правильно понял, что надо давать логон\пароль от операционной системы, а не от SYSDBA, например? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 11:32 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Oracle он должен запускать через ОС аутентификацию. То есть, аналогично как если написать su oracle, там sqlplus и в нём startup. Может, на второй ноде забыли пользователя oracle с группами dba/oinstall в solaris завести? А логин-пароль ему указывается для ораклового юзера, Sun cluster туда будет ходить его мониторить. Перезапускать если здох и тд. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 12:25 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Так-так-так... На второй ноде юзер не был вообще ни в одной группе, хотя я точно помню, что добавлял его туда через SMC... Попробовал ещё раз сделать /usr/cluster/bin/clresourcegroup online -emM oracle-rg получил Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. Попробовал вручную зайти в sqlplus: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. localhost:1158/em тоже не отвечает - по-видимому, после размонтирования /u01 во время неудачного запуска кластера. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 13:02 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
ну, надо же $ORACLE_SID нормально выставить же! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 13:19 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Да, oracle_sid таки не был установлен. Пробуем ещё раз: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. 131. 132. 133. 134. 135. 136. 137. 138. 139. 140. 141. 142. 143. Что-то я не понял, мои действия clresourcegroup online -emM oracle-rg никак не отразились в логе, судя по timestamp?.. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 13:47 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
в out-of-memory какое слово перевести? Зачем пускать скрипты на неработающей базе? Ну и запуск oracle от root - тоже непонятно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 13:51 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Насчёт out-of-memory, судя по всему был виноват smc, который изуродовал /etc/user_attr, это я поправил. В каждой машине на самом деле 4Gb, чего, полагаю, должно хватать. Я подозреваю, что дело в самом оракле, так как em показывает, что ничего не запущено: Listener status: Down Agent Connection to Instance status: Failed Попробовал сделать Perform Recovery, получил отлуп: The database is currently OPEN. However, EM cannot connect to the database due to the above error. Please fix the above error and try again. Я так думаю, что всё-таки кластер должен работать нормально а проблема в том, что орацль не поднимается из-за предыдущих некорректных попыток. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 14:14 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
em не поднимается потому что листенер не работает. Для него нужен отдельный ресурс: Код: plaintext 1. 2. 3. 4. 5. 6. А out of memory может вылезать потому что настройки shmem не были сделаны. Те, которые через projmod надо делать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 15:05 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, насчёт запуска скриптов на неработающей базе: это была цитата из лога, так что скрипты не я запускал :). Теперь, насчёт em: я снёс полностью базу и ресурсы в кластере. Создал базу заново, em заработал, показал, что база в дауне, листенер в дауне. Запускать я ничего не стал, сразу попробовал сконфигурировать кластер. Создал все ресурсы, получил уже стандартный ответ: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. out-of-memory случилось от того, что smc зачем-то отредактировал /etc/user_attr и удалил оттуда строчку с oracle::::project=group.dba со сконфигурированными shmemами. В общем, я начинаю думать, что надо наверное сначала поднимать ось, так как что-то явно напортачено :( ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 15:37 |
|
||
|
|

start [/forum/topic.php?fid=25&msg=36563141&tid=1485009]: |
0ms |
get settings: |
9ms |
get forum list: |
17ms |
check forum access: |
3ms |
check topic access: |
3ms |
track hit: |
46ms |
get topic data: |
12ms |
get forum data: |
2ms |
get page messages: |
74ms |
get tp. blocked users: |
1ms |
| others: | 214ms |
| total: | 381ms |

| 0 / 0 |
