|
|
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Всем привет! Сразу оговорюсь, я новичок в Solaris Cluster и Oracle, так что прошу сильно не пинать, если вопрос уж очень глупый. Ситуация примерно такая: внутри ESXi хочу поднять кластер на две ноды на солярисе, на котором будет крутиться оракл 11g r1. "Sun Cluster Data Service for Oracle Guide for Solaris OS" почитал, но не до конца понял, обязательно ли конфигурировать cluster file system для датафайлов оракла, или можно в случае тестовой инсталляции тупо взять лун, который будет показываться обоим нодам, отформатируется в UFS один раз на этапе инсталляции, скажем, первой ноды и монтироваться в /u02 на обоих нодах? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.03.2010, 13:04 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
нет ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.03.2010, 18:06 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
cluster fs (aka pxfs) не только не нужен, но и не поддерживается для работы Oracle. LUN надо отдать под контроль volume manager'а. Для начала есть неплохая книга в комплекте документации: http://docs.sun.com/app/docs/doc/820-4989/chapter1-1?l=en&a=view Sun Cluster Quick Start Guide for Solaris OS ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2010, 01:30 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Спасибо! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.03.2010, 12:40 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Решил не создавать дополнительную тему, дабы не плодить лишние сущности :). Сделал всё по мануалу Quick Start Guide, но на этапе конфигурирования lvm возникла проблема: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. /dev/did/rdsk/d4 - LUN на 2Gb для данных оракла, так что его и конфигурируем. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. Дальше, в мануале сказано изменить /etc/lvm/md.tab. Добавил следующие строчки: Код: plaintext 1. 2. 3. 4. Не до конца уверен, что надо брать d4s0 (в мануале несколько по-другому, но, насколько я понял, там опечатка и перепутали примеры, стр. 32, если что - How to create and activate md.tab file), но я вписал именно его. Дальше получаю ошибку: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. Чую, что сделал какую-то глупость, но не могу понять - где именно :(. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 18.03.2010, 15:10 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Ну, там в одном месте 2 ГБ, а во втором - 3 Гб. Логично, что места не хватает ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 18.03.2010, 17:01 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Я, честно говоря, не совсем понимаю "физический смысл" последних двух строчек. В мануале написано следующая конфигурация: Код: plaintext 1. 2. 3. 4. 5. 6. 7. Можно прояснить - какая смысловая нагрузка на последние две строчки и почему их тогда не добавили для первых двух сетов? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 18.03.2010, 17:31 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
эти строчки создают на диске две партиции (soft partitions) по 3 ГБ. Добавили их чтобы разнести бинарники ораклка (ORACLE_HOME) и данные оракла, потому что они их монтируют потом с разными параметрами - для данных включают forcedirectio. Я бы не стал заморачиваться с софтпартициями, а просто сделал бы два LUNf на массиве. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 18.03.2010, 17:53 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Я не совсем понял один момент: бинарники оракла должны тоже сидеть в shared LUNе? И ещё один вопрос: что посоветуете почитать насчёт конфигурирования lvm применительно к данному случаю (что-то вроде курса молодого бойца, что бы не отвлекаться от главной темы :) )? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 19.03.2010, 09:18 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Там они ставят на общий LUN, что в общем логично. Что касается LVM, в System administration collection от solaris10 есть отдельная книга про него. Но по большому счёту, всё нужное описано в man metainit и metaset ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 19.03.2010, 17:01 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
То есть, я правильно понял, что установка oracle_home в общий LUN - средство избежать многократных (кратных количеству нод в кластере) установок и настроек оракла, так? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 20.03.2010, 16:51 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
z3r0c0l, Так, но в случае апгрейда придётся останавливать всё. В случае, когда софт стоит на локальных дисках, можно накатывать патчи на ноды по очереди, не останавливая базу. Что, на мой взгляд, значительно удобнее... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 24.03.2010, 20:12 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
GL, Понятно, спасибо за информацию. Поставил оракл (/u01/app/oracle), создал базу данных (/u02/oradata), всё лежит, как и сказано в документации, на шаред луне: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. тот же vfstab - на второй ноде, куда, разумеется, я ничего не ставил. Начал поднимать HA-агент для оракла, всё делал по дефолту, в качестве общего ресурса взял запись из cluster /etc/hosts (одинаковый на обоих нодах): Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. в итоге, визард сдох на последнем этапе, выведя ошибку от второй ноды, где указывалось на невозможность записать лог в /u01/app/oracle/..... Зашёл на вторую ноду, в /u01/app/oracle ничего не было: Код: plaintext 1. 2. Сказал ему mount /u01/app/oracle и заодно /u02/oradata, содержимое увидел. Начал визард снова, но он упал с другой ошибкой. Дальше интереснее: зашёл на первую ноду, где и /u01 и /u02 были видны изначально (иначе оракл не встал бы) и теперь вижу следующее: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. в общем, наблюдается какая-то ерунда: /u01 и /u02 пустые, монтироватьсяв них ничего не хочет... подозреваю, что я напортачил что-то во время одновременного монтирования файловых систем на обе ноды, но перезагрузка обеих нод ничего не дала. Придётся делать newfs и ставить всё заново? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 11:58 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Оно, похоже, отдало куда-то метасет и не хочет возвращать. постите сюда cluster status ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 14:26 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. Вот. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 14:53 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Вроде нормально всё. А визард чего писал? А /etc/lvm/md.tab везде одинаковые? И /etc/hosts тоже одинаковые? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 15:24 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. Запустил визард ещё раз, ошибка теперь другая (визард не дошёл до месте, где умер в прошлый раз): Код: plaintext Что, собственно, логично - /u01 нормально не монтируется ls ничего не показывает. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 16:01 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Раз кластера всеравно пока нет, то активируйте метасет вручную. Код: plaintext и можно будет монтировать ФС ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.03.2010, 16:43 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Насчёт похищения метасета: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. То есть, метасет действительно куда-то потерялся... Поставил оракл заново, так как уже успел сделать newfs, создал базу в /u02. Так как в документации не сказано, что надо запускать базу, я оставил всё по дефолту, em показал, что база в дауне. Дальше делал всё по документации, визард нашёл базу. В поле Alert_log_file ввёл "/u01/app/oracle" - вопреки документации, но, думаю, это не смертельно. Правда, по ходу визарда я вспомнил, что забыл смонтировать на второй ноде /u01 и /u02. Отменил визард, попытался смонтировать, получил вот это: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. Экстремальные меры тоже не помогли: Код: plaintext 1. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.03.2010, 09:55 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Ну, файловая система UFS должна быть замонтирована на одном узле. И только так. Иначе она развалиться. Соответственно, метасет может быть активирован (taken) только одним узлом, так что всё правильно. Когда всё настроится, кластер будет его активировать, монтировать ФС, пускть оракл и тд. Насчёт Alert log не понял - так жалко ему сказать полный путь чтоли? Если неполучается его найти, то по дефолту он будет в $ORACLE_HOME/admin/bdump/alert_${ORACLE_SID}.log. Я подозреваю если его не указать, то визард там и остановиться с ошибкой: он небось может отличить каталог от файла с логом. Там, кстати, визарду понадобиться ещё и пользователь в Oracle. Его завели? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.03.2010, 10:52 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, По-видимому я в ходе экспериментов напортачил в конфигах, визард валился, даже если всё правильно указать. Я переставил всё с нуля, но заметил странную вещь: metaset после перезагрузки теряет овнера. И если не сказать metaset -s oraset -t то mount не работает. Так и должно быть? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 12:17 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Да, после переустановки заново, визард вывалился с ошибкой: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. Кстати, после работы визарда em стал недоступен. Сама база была в оффлайне в момент его работы (т.к. в документации не сказано, что её надо переводить в онлайн и визард её находил) - это могло повлиять на процесс создания кластера? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 13:24 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
То, что метасет после ребута недоступен - это так и должно быть, его либо кластер должен активировать, либо другой какой метод. Сам он не будет подниматься. Почему разваливается визард я не понял, там точно не было никаких больше сообщений об ошибке? И смущает меня путь до alert.log. Постите cluster status снова, давайте смотреть чего там визард сделал. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 13:43 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Мутаген, Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. Да, в данный момент отпять отвалился овнер от метасета: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. Собственно, перед тем как попробовать визард ещё раз, хочу уточнить: монтировать вручную /u01 и /u02 перед выполнением визарда надо, или он сам сообразит? Кроме того, я так понял, надо бы почистить кластер от ресурс-групп и ресурсов, котрорые там сейчас остались, перед запуском визарда, так? Что касается ошибок, я скопировал полный аутпут команды, то есть, вроде бы больше не было ничего. Насчёт alert_log, визард его сам обнаружил, я проверил, файл присутствовал. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 13:59 |
|
||
|
Solaris Cluster + Oracle 11g disk config
|
|||
|---|---|---|---|
|
#18+
Да, небольшое допролнение: Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.03.2010, 14:02 |
|
||
|
|

start [/forum/topic.php?fid=25&msg=36530040&tid=1485009]: |
0ms |
get settings: |
11ms |
get forum list: |
18ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
62ms |
get topic data: |
10ms |
get forum data: |
3ms |
get page messages: |
78ms |
get tp. blocked users: |
1ms |
| others: | 252ms |
| total: | 443ms |

| 0 / 0 |
