|
|
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Всем привет! Сразу оговорюсь, я новичок в Solaris Cluster и Oracle, так что прошу сильно не пинать, если вопрос уж очень глупый. Ситуация примерно такая: внутри ESXi хочу поднять кластер на две ноды на солярисе, на котором будет крутиться оракл 11g r1. "Sun Cluster Data Service for Oracle Guide for Solaris OS" почитал, но не до конца понял, обязательно ли конфигурировать cluster file system для датафайлов оракла, или можно в случае тестовой инсталляции тупо взять лун, который будет показываться обоим нодам, отформатируется в UFS один раз на этапе инсталляции, скажем, первой ноды и монтироваться в /u02 на обоих нодах? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.03.2010, 13:04 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
нет ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.03.2010, 18:06 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
cluster fs (aka pxfs) не только не нужен, но и не поддерживается для работы Oracle. LUN надо отдать под контроль volume manager'а. Для начала есть неплохая книга в комплекте документации: http://docs.sun.com/app/docs/doc/820-4989/chapter1-1?l=en&a=view Sun Cluster Quick Start Guide for Solaris OS ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2010, 01:30 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Спасибо! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.03.2010, 12:40 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Решил не создавать дополнительную тему, дабы не плодить лишние сущности :). Сделал всё по мануалу Quick Start Guide, но на этапе конфигурирования lvm возникла проблема: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. /dev/did/rdsk/d4 - LUN на 2Gb для данных оракла, так что его и конфигурируем. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. Дальше, в мануале сказано изменить /etc/lvm/md.tab. Добавил следующие строчки: Код: plaintext 1. 2. 3. 4. Не до конца уверен, что надо брать d4s0 (в мануале несколько по-другому, но, насколько я понял, там опечатка и перепутали примеры, стр. 32, если что - How to create and activate md.tab file), но я вписал именно его. Дальше получаю ошибку: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. Чую, что сделал какую-то глупость, но не могу понять - где именно :(. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 18.03.2010, 15:10 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Ну, там в одном месте 2 ГБ, а во втором - 3 Гб. Логично, что места не хватает ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 18.03.2010, 17:01 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Я, честно говоря, не совсем понимаю "физический смысл" последних двух строчек. В мануале написано следующая конфигурация: Код: plaintext 1. 2. 3. 4. 5. 6. 7. Можно прояснить - какая смысловая нагрузка на последние две строчки и почему их тогда не добавили для первых двух сетов? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 18.03.2010, 17:31 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
эти строчки создают на диске две партиции (soft partitions) по 3 ГБ. Добавили их чтобы разнести бинарники ораклка (ORACLE_HOME) и данные оракла, потому что они их монтируют потом с разными параметрами - для данных включают forcedirectio. Я бы не стал заморачиваться с софтпартициями, а просто сделал бы два LUNf на массиве. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 18.03.2010, 17:53 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Я не совсем понял один момент: бинарники оракла должны тоже сидеть в shared LUNе? И ещё один вопрос: что посоветуете почитать насчёт конфигурирования lvm применительно к данному случаю (что-то вроде курса молодого бойца, что бы не отвлекаться от главной темы :) )? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 19.03.2010, 09:18 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Там они ставят на общий LUN, что в общем логично. Что касается LVM, в System administration collection от solaris10 есть отдельная книга про него. Но по большому счёту, всё нужное описано в man metainit и metaset ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 19.03.2010, 17:01 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
То есть, я правильно понял, что установка oracle_home в общий LUN - средство избежать многократных (кратных количеству нод в кластере) установок и настроек оракла, так? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 20.03.2010, 16:51 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
z3r0c0l, Так, но в случае апгрейда придётся останавливать всё. В случае, когда софт стоит на локальных дисках, можно накатывать патчи на ноды по очереди, не останавливая базу. Что, на мой взгляд, значительно удобнее... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 24.03.2010, 20:12 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
GL, Понятно, спасибо за информацию. Поставил оракл (/u01/app/oracle), создал базу данных (/u02/oradata), всё лежит, как и сказано в документации, на шаред луне: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. тот же vfstab - на второй ноде, куда, разумеется, я ничего не ставил. Начал поднимать HA-агент для оракла, всё делал по дефолту, в качестве общего ресурса взял запись из cluster /etc/hosts (одинаковый на обоих нодах): Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. в итоге, визард сдох на последнем этапе, выведя ошибку от второй ноды, где указывалось на невозможность записать лог в /u01/app/oracle/..... Зашёл на вторую ноду, в /u01/app/oracle ничего не было: Код: plaintext 1. 2. Сказал ему mount /u01/app/oracle и заодно /u02/oradata, содержимое увидел. Начал визард снова, но он упал с другой ошибкой. Дальше интереснее: зашёл на первую ноду, где и /u01 и /u02 были видны изначально (иначе оракл не встал бы) и теперь вижу следующее: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. в общем, наблюдается какая-то ерунда: /u01 и /u02 пустые, монтироватьсяв них ничего не хочет... подозреваю, что я напортачил что-то во время одновременного монтирования файловых систем на обе ноды, но перезагрузка обеих нод ничего не дала. Придётся делать newfs и ставить всё заново? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 11:58 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Оно, похоже, отдало куда-то метасет и не хочет возвращать. постите сюда cluster status ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 14:26 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. Вот. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 14:53 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Вроде нормально всё. А визард чего писал? А /etc/lvm/md.tab везде одинаковые? И /etc/hosts тоже одинаковые? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 15:24 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. Запустил визард ещё раз, ошибка теперь другая (визард не дошёл до месте, где умер в прошлый раз): Код: plaintext Что, собственно, логично - /u01 нормально не монтируется ls ничего не показывает. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 16:01 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Раз кластера всеравно пока нет, то активируйте метасет вручную. Код: plaintext и можно будет монтировать ФС ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 16:43 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Насчёт похищения метасета: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. То есть, метасет действительно куда-то потерялся... Поставил оракл заново, так как уже успел сделать newfs, создал базу в /u02. Так как в документации не сказано, что надо запускать базу, я оставил всё по дефолту, em показал, что база в дауне. Дальше делал всё по документации, визард нашёл базу. В поле Alert_log_file ввёл "/u01/app/oracle" - вопреки документации, но, думаю, это не смертельно. Правда, по ходу визарда я вспомнил, что забыл смонтировать на второй ноде /u01 и /u02. Отменил визард, попытался смонтировать, получил вот это: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. Экстремальные меры тоже не помогли: Код: plaintext 1. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.03.2010, 09:55 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Ну, файловая система UFS должна быть замонтирована на одном узле. И только так. Иначе она развалиться. Соответственно, метасет может быть активирован (taken) только одним узлом, так что всё правильно. Когда всё настроится, кластер будет его активировать, монтировать ФС, пускть оракл и тд. Насчёт Alert log не понял - так жалко ему сказать полный путь чтоли? Если неполучается его найти, то по дефолту он будет в $ORACLE_HOME/admin/bdump/alert_${ORACLE_SID}.log. Я подозреваю если его не указать, то визард там и остановиться с ошибкой: он небось может отличить каталог от файла с логом. Там, кстати, визарду понадобиться ещё и пользователь в Oracle. Его завели? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.03.2010, 10:52 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, По-видимому я в ходе экспериментов напортачил в конфигах, визард валился, даже если всё правильно указать. Я переставил всё с нуля, но заметил странную вещь: metaset после перезагрузки теряет овнера. И если не сказать metaset -s oraset -t то mount не работает. Так и должно быть? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 12:17 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Да, после переустановки заново, визард вывалился с ошибкой: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. Кстати, после работы визарда em стал недоступен. Сама база была в оффлайне в момент его работы (т.к. в документации не сказано, что её надо переводить в онлайн и визард её находил) - это могло повлиять на процесс создания кластера? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 13:24 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
То, что метасет после ребута недоступен - это так и должно быть, его либо кластер должен активировать, либо другой какой метод. Сам он не будет подниматься. Почему разваливается визард я не понял, там точно не было никаких больше сообщений об ошибке? И смущает меня путь до alert.log. Постите cluster status снова, давайте смотреть чего там визард сделал. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 13:43 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. Да, в данный момент отпять отвалился овнер от метасета: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. Собственно, перед тем как попробовать визард ещё раз, хочу уточнить: монтировать вручную /u01 и /u02 перед выполнением визарда надо, или он сам сообразит? Кроме того, я так понял, надо бы почистить кластер от ресурс-групп и ресурсов, котрорые там сейчас остались, перед запуском визарда, так? Что касается ошибок, я скопировал полный аутпут команды, то есть, вроде бы больше не было ничего. Насчёт alert_log, визард его сам обнаружил, я проверил, файл присутствовал. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 13:59 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Да, небольшое допролнение: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 14:02 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
эээ... Ещё небольшое дополнение - судя по всему, ошибка была в /etc/hosts на второй ноде, там не была первая нода. Это могло повлиять на визард? Если да, то, соответственно, что надо почистить, что бы запустить его ещё раз? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 14:05 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
В общем, я попробовал сделать всё заново и 1) активировал metaset 2) подмонтировал /u01 /u02 3) удалил ресурсы кластера, поправил /etc/hosts на второй ноде 4) проверил наличие alert_log: Код: plaintext 1. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. Подозреваю, что что-то недоудалил в начале :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 14:53 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Попробовал сделать ещё раз, только не через визард, а вручную через консоль. С каждым шагом "всё страньше и страньше" (ц) Винни-Пух: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. Я попробовал поменять местами Код: plaintext Код: plaintext 1. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 16:14 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
этот варнинг нестрашный, это просто тупит визард, нет нужды там звать clrg online так часто. Покажите нам тут вывод head /u01/app/rdbms/log/alert_db.log и ls -ld /u01/app/bin/oracle ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 17:30 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Код: plaintext 1. 2. 3. 4. 5. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 31.03.2010, 09:57 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Файлы впроде все на месте, хотя и на неожиданном. Я так понимаю, сейчас кластер более-менее работает. То есть, clrg status должна показывать ресурс-группу oracle-rg в состоянии online на одном из узлов. И при переключении её на другой узел (clrg switch -n <nodename> oracle-rg) на втором узле монтируются ФС и поднимается этот IP? Если это так, то я бы попробовал ещё раз просто запустить создание ресурса ораклового. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.04.2010, 20:02 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Созданный ранее кластер погиб в неравном бою с раздолбайством коллег, так что пришлось всё поднять заново. Итак, ноды: node-1, node-2, соответственно, оракл ставится на node-1 и она же подразумевается основной. Каждой ноде виден общий лун c1t1d0 - для самого оракла и базы данных. Содержимое /etc/hosts идентично (ну, с поправкой наличия loghost). Дисковая конфигурация node-1: Код: plaintext 1. 2. node-2: Код: plaintext 1. 2. В скобках два замечания: 1) Я не совсем понял, почему /globaldevices закомментирован в обоих файлах, несмотря на то, что при установке я явно его указывал монтировать... Впрочем, как я понимаю, это не суть важно. 2) И не совсем понятно, почему в одном случае ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.04.2010, 14:38 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Упс... Случайно нажал post :). Сорри, продолжаю: 2) И не совсем понятно, почему в одном случае /dev/did/dsk/d5s3 а в другом - /dev/did/dsk/d2s3 - я так понял, это всё создал сам кластер, так что руками лезть не стал. Далее, статус кластера с node-1: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. и node-2 Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. оракл стоит на первой ноде, в /u01/app база лежит в /u02/oradata на всякий случай вывод с node-1: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. Содержимое /etc/lvm/md.tab: Код: plaintext 1. 2. 3. Теперь идём в веб-интерфейс и сначала создаём highly-available storage. На вопрос "Select Shared Storage Type" из Код: plaintext 1. 2. Код: plaintext 1. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. Communication with the common agent container or the web server lost during command execution. Log out of the Java Web Console, restart the common agent container and the console's web server, and try again." Пояснений никаких нет. Ок, пробую делать сразу, через визард configure Data Services for Applications для Oracle. В визарде выбираю опцию Server and Listener, в качестве Specify Oracle Home Directory визард сам предлагает по умолчанию /u01/app, аналогично на Specify Oracle System Identifier сам же предлагает выбрать db, как SID для ранее созданной базы. Дальше прописываю путь к alert log: /u01/app/admin/db/bdump/alert_db.log и connect string: oracle/P@ssw0rd. Дальше Configure Highly Available Storage Resources, на вопрос Select Shared Storage Type выбираю Both Types. Аналогично предыдущей попытке выбираю /u01 и/u02, выбираю oraset в секции Select global device groups for use by your data files. Получаю сообщение "Added /u01/app,/u02/oradata,oraset to the table of highly available storage resources.". Configure Logical Hostname Resource. Беру из /etc/hosts ранее добавленную запись dbcls и получаю вот такое сообщение: IPMP Group Warning Unable to find suitable IPMP groups for plumbing the hostnames on the specified nodes node-2,node-1. The wizard might be able to create a default IPMP group when there is one adapter configured for the subnet. Click Next to let the wizard create the IPMP groups. Жму Next. Вроде получается: Added dbcls to the table of logical hostname resources. Дальше визард предлагает пересмотреть, что получилось (Review Sun Cluster Objects), оставляю всё так, как создал визард. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. Next. Через минут десять получаю "Configuration of Sun Cluster HA for Oracle failed clresource: (C748634) Resource group oracle-rg failed to start on chosen node and might fail over to other node(s) Non-zero exit status" Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. Дальше вывод с node-1: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. 131. 132. 133. 134. 135. 136. 137. 138. В общем, я в тупике :( ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.04.2010, 15:17 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Код: plaintext 1. 2. 3. 4. 5. Я вот думаю, может быть, я просто занимаюсь ерундой и внутри ESX такая конфигурация просто не будет работать по определению? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2010, 14:11 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
у меня на Virtualbox более-менее работает. Правда, без Oracle и на solaris express (i.e. 11) с Sun cluster express. А cldevicegroup switch делал? И в логах (dmesg) есть чего интересное? И там где вывод cluster check есть чего интересное? Ну и руководство как бы говорит, что сначала редактирование md.tab, metainit и только потом newfs, mount и установка софта. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2010, 14:36 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. Вечерком попробую сделать кластер заново, точно соблюдая последовательность. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2010, 15:08 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
авторApr 5 18:03:18 node-1 Cluster.RGM.global.rgmd: [ID 515159 daemon.notice] method <hafoip_monitor_start> completed successfully for resource <dbcls-rs>, resource group <oracle-rg>, node <node-1>, time used: 0% of timeout <300 seconds> Apr 5 18:03:22 node-1 SC[SUNWscor.oracle_server.start]:oracle-rg:oracle_serverdb-rs: [ID 876834 daemon.error] Could not start server Apr 5 18:03:22 node-1 Cluster.RGM.global.rgmd: [ID 938318 daemon.error] Method <bin/oracle_server_start> failed on resource <oracle_serverdb-rs> in resource group <oracle-rg> [exit code <1>, time used: 0% of timeout <600 seconds>] Это он не может Oracle запустить почему-то. См. файл /var/opt/SUNWscor/oracle_server/message_log.oracle_rg (или как-то там рядом) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 11:06 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
О, а вот в логе очень интересно: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. Насколько я понял, проблемы с авторизацией в оракле. Вопрос: я правильно понял, что надо давать логон\пароль от операционной системы, а не от SYSDBA, например? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 11:32 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Oracle он должен запускать через ОС аутентификацию. То есть, аналогично как если написать su oracle, там sqlplus и в нём startup. Может, на второй ноде забыли пользователя oracle с группами dba/oinstall в solaris завести? А логин-пароль ему указывается для ораклового юзера, Sun cluster туда будет ходить его мониторить. Перезапускать если здох и тд. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 12:25 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Так-так-так... На второй ноде юзер не был вообще ни в одной группе, хотя я точно помню, что добавлял его туда через SMC... Попробовал ещё раз сделать /usr/cluster/bin/clresourcegroup online -emM oracle-rg получил Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. Попробовал вручную зайти в sqlplus: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. localhost:1158/em тоже не отвечает - по-видимому, после размонтирования /u01 во время неудачного запуска кластера. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 13:02 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
ну, надо же $ORACLE_SID нормально выставить же! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 13:19 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Да, oracle_sid таки не был установлен. Пробуем ещё раз: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. 131. 132. 133. 134. 135. 136. 137. 138. 139. 140. 141. 142. 143. Что-то я не понял, мои действия clresourcegroup online -emM oracle-rg никак не отразились в логе, судя по timestamp?.. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 13:47 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
в out-of-memory какое слово перевести? Зачем пускать скрипты на неработающей базе? Ну и запуск oracle от root - тоже непонятно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 13:51 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Насчёт out-of-memory, судя по всему был виноват smc, который изуродовал /etc/user_attr, это я поправил. В каждой машине на самом деле 4Gb, чего, полагаю, должно хватать. Я подозреваю, что дело в самом оракле, так как em показывает, что ничего не запущено: Listener status: Down Agent Connection to Instance status: Failed Попробовал сделать Perform Recovery, получил отлуп: The database is currently OPEN. However, EM cannot connect to the database due to the above error. Please fix the above error and try again. Я так думаю, что всё-таки кластер должен работать нормально а проблема в том, что орацль не поднимается из-за предыдущих некорректных попыток. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 14:14 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
em не поднимается потому что листенер не работает. Для него нужен отдельный ресурс: Код: plaintext 1. 2. 3. 4. 5. 6. А out of memory может вылезать потому что настройки shmem не были сделаны. Те, которые через projmod надо делать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 15:05 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, насчёт запуска скриптов на неработающей базе: это была цитата из лога, так что скрипты не я запускал :). Теперь, насчёт em: я снёс полностью базу и ресурсы в кластере. Создал базу заново, em заработал, показал, что база в дауне, листенер в дауне. Запускать я ничего не стал, сразу попробовал сконфигурировать кластер. Создал все ресурсы, получил уже стандартный ответ: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. out-of-memory случилось от того, что smc зачем-то отредактировал /etc/user_attr и удалил оттуда строчку с oracle::::project=group.dba со сконфигурированными shmemами. В общем, я начинаю думать, что надо наверное сначала поднимать ось, так как что-то явно напортачено :( ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.04.2010, 15:37 |
|
||
|
|

start [/forum/topic.php?all=1&fid=25&tid=1485009]: |
0ms |
get settings: |
8ms |
get forum list: |
20ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
204ms |
get topic data: |
11ms |
get forum data: |
2ms |
get page messages: |
89ms |
get tp. blocked users: |
2ms |
| others: | 233ms |
| total: | 577ms |

| 0 / 0 |
