Этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
Политика конфиденциальности
|
|
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
У меня при бекапах возникает длинный чек поинт от 5 -30 мин . При этом сервер все это время не отвечает . Скажите из за чего это может быть ? Или как сделать что бы сервер хотя бы работал во время чек поинта !! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 10:51 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 10:52 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRo Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. Скажите, из приведённого фрагмента следует, что чекпоинтов с 4:42 до 5:14 не было - это похоже на правду? А чекпоинты перед бэкапом и после него не были продолжительными? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 11:05 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
У меня стоит IDS 9.4 На плтформе Linux RH 4 EN Linux ix1 2.6.9-5.ELsmp #1 SMP Wed Jan 5 19:30:39 EST 2005 i686 i686 i386 В основном длинный чек поинт возникает именно во время бекапа . Иногда бывает он возникает и просто так по не понятным причинам , но это очень редко. При бекапе же он возникает в 40% И состовляет от 3 х минут и до бесконечности . АлексанСкажите, из приведённого фрагмента следует, что чекпоинтов с 4:42 до 5:14 не было - это похоже на правду? А чекпоинты перед бэкапом и после него не были продолжительными? Чек поинт у нас да и впрочем везде ж так идут каждые пять минут . А то что вы тут видите это то что он начался 4:47 и длился до 5:14 . Код: plaintext Параметры TAPEBLK у меня такие Код: plaintext 1. 2. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 11:15 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
У меня стоит IDS 9.4 На плтформе Linux RH 4 EN Linux ix1 2.6.9-5.ELsmp #1 SMP Wed Jan 5 19:30:39 EST 2005 i686 i686 i386 В основном длинный чек поинт возникает именно во время бекапа . Иногда бывает он возникает и просто так по не понятным причинам , но это очень редко. При бекапе же он возникает в 40% И состовляет от 3 х минут и до бесконечности . АлексанСкажите, из приведённого фрагмента следует, что чекпоинтов с 4:42 до 5:14 не было - это похоже на правду? А чекпоинты перед бэкапом и после него не были продолжительными? Чек поинт у нас да и впрочем везде ж так идут каждые пять минут . А то что вы тут видите это то что он начался 4:47 и длился до 5:14 . Код: plaintext Параметры TAPEBLK у меня такие Код: plaintext 1. 2. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 11:26 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
Сколько процессоров на сервере и какое значение NUMCPUVPs вы используете? Выложите также результаты onstat -u по ходу такого длинного чекпоинта. Я такую ситуацию один раз уже видел... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 11:31 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
Значение NUMCPUVPS Код: plaintext На сервере 4 процессора и много памяти Вот вывод команды топ Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. Оnstat -u могу показать какой счас . Когда будет следующий длинный чек поинт точно сказать не могу . ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 11:42 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRoОnstat -u могу показать какой счас . Когда будет следующий длинный чек поинт точно сказать не могу . Нужен в момент, когда вы наблюдаете длинный чекпоинт. Можно на cron раз в пять минут повесить и ждать... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 11:45 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
ок буду ждать как только замечу сразу выложу. Вот кстати кусок лога за вчера с длинным чек поинтом который возник просто так (не во время бекапа). Я подозреваю из за того что я начал переливать по сети через фтп 40 гб бекап базы. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 11:50 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRoок буду ждать как только замечу сразу выложу. Вот кстати кусок лога за вчера с длинным чек поинтом который возник просто так (не во время бекапа). Я подозреваю из за того что я начал переливать по сети через фтп 40 гб бекап базы. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 12:30 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
Из параметров ядра изменялись следующие значения Код: plaintext 1. 2. 3. 4. 5. 6. Все остальное осталось по умолчанию. авторИнтересно также взглянуть, не жаловалась ли операционная система на что-нибудь, например, на сетевой интерфейс... Нет по логам линукса нечего не обычного нет . ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 12:55 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRoНет по логам линукса нечего не обычного нет .Тогда Вам остаётся следить за нитями, когда такие события случатся в следующий раз. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.08.2007, 16:24 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRoок буду ждать как только замечу сразу выложу. Вот кстати кусок лога за вчера с длинным чек поинтом который возник просто так (не во время бекапа). Я подозреваю из за того что я начал переливать по сети через фтп 40 гб бекап базы. ... Повторите переливание такого объема данных по FTP - и если опять получите длинный чекпоинт, то будет видно что дело вовсе не в информиксе. Возможно информикс конкурирует за ресурсы с каким то другим приложением (FTP или др.), отсюда и длинные чекпоинты. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.08.2007, 10:43 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
Andron KyRoок буду ждать как только замечу сразу выложу. Вот кстати кусок лога за вчера с длинным чек поинтом который возник просто так (не во время бекапа). Я подозреваю из за того что я начал переливать по сети через фтп 40 гб бекап базы. ... Повторите переливание такого объема данных по FTP - и если опять получите длинный чекпоинт, то будет видно что дело вовсе не в информиксе. Возможно информикс конкурирует за ресурсы с каким то другим приложением (FTP или др.), отсюда и длинные чекпоинты. Я уверен на 90%, что конкуренция идет за кеш файловой системы, при этом чанки лежат не на raw. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.08.2007, 10:55 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
А сам бэкап замедляется или нет? У меня на семерке была такая проблема, сначала заметили, что чекпойнты резко увеличились, затем с ростом объемов заметили рекое замедление самого бэкапа. Лечится установкой недокументированного параметра CCFLAGS в 0x400000, но без согласования с суппортом Informix ставить его не рекомендуется. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.08.2007, 13:40 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
авторПовторите переливание такого объема данных по FTP - и если опять получите длинный чекпоинт, то будет видно что дело вовсе не в информиксе. Возможно информикс конкурирует за ресурсы с каким то другим приложением (FTP или др.), отсюда и длинные чекпоинты. Повторял . Нечего нет . Каждый день переливаю таким образом (Правда тогда лил не по сети а просто делал мув с одного раздела на другой). Эксперементировать к сожалению не могу -это живая система которая должна быть всегда доступна . Чанки находятся на сырцах разделов. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. авторА сам бэкап замедляется или нет? Точно сказать не могу . Но судя по последнему разу то нет с длинным чек поинтом он длился 50 мин. А сегодня не было длинного чек поинта и он длился гораздо больше почти 1.5 часа Код: plaintext 1. 2. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.08.2007, 14:00 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRo Чанки находятся на сырцах разделов. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. По умолчанию Linux сырые устройства находятся на /dev/raw где в выводе ls -al первая буква "с" А то что у вас подключено называется блочные устройства. в выводе ls -al для ваших устройств первая буква "b". Для блочных устройств ядро по умолчанию использует кеш для операций ввода вывода. Коственно использование кеша ОС можно проверить с помошью команды sar -B , обращать внимание на столбец fault/s Если его значение увеличивается прорционально росту ВВ базы значит при операциях ВВ базы используется буферный кеш ОС. В случае же использования настоящих raw ( с буквой 'c' ) значение fault/s не будет зависить от обьема ВВ базы данных. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.08.2007, 15:39 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRo А сегодня не было длинного чек поинта и он длился гораздо больше почти 1.5 часа Код: plaintext 1. 2. Интуиция мне подсказывает, что у Вас происходло(происходит) следующее: В случае длиной контрольной точки ОС выганяет в своп разделяему память БД и дает зеленый свет операциям ВВ бекапирования через дисковый кеш. В случае же более быстрой контрольной точки бэкап идет медленне изза недостатка памяти под дисковый кеш, зато за счет того, что разделяемая память находится в ОЗУ контрольная точка проходит быстрее. Без анализа onconfig и конфигурации железа и ОС это только предположения. Интуиция != телепатия ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.08.2007, 23:53 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
авторВ случае длиной контрольной точки ОС выганяет в своп разделяему память БД и дает зеленый свет операциям ВВ бекапирования через дисковый кеш. В случае же более быстрой контрольной точки бэкап идет медленне изза недостатка памяти под дисковый кеш, зато за счет того, что разделяемая память находится в ОЗУ контрольная точка проходит быстрее. Возможно это именно так и происходит. Потому что происходят чек поинты при длительных операциях с дисками (В основном при записи на диск , а не чтения). Можно ли сделать что бы приоритет доступа к дискам был у чек поинтов ? авторБез анализа onconfig и конфигурации железа и ОС это только предположения. Про железо могу сказать следующее : Это 4 х Процессорный сервер IBM366 4 Gb Ram . База данных лежит на SCSI дисковой подсистеме Насчет onconfig вот он : Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. 131. 132. 133. 134. 135. 136. 137. 138. 139. 140. 141. 142. 143. 144. 145. 146. 147. 148. 149. 150. 151. 152. 153. 154. 155. 156. 157. 158. 159. 160. 161. 162. 163. 164. 165. 166. 167. 168. 169. 170. 171. 172. 173. 174. 175. 176. 177. 178. 179. 180. 181. 182. 183. 184. 185. 186. 187. 188. 189. 190. 191. 192. 193. 194. 195. 196. 197. 198. 199. 200. 201. 202. 203. 204. 205. 206. 207. 208. 209. 210. 211. 212. 213. 214. 215. 216. 217. 218. 219. 220. 221. 222. 223. 224. 225. 226. 227. 228. 229. 230. 231. 232. 233. 234. 235. 236. 237. 238. 239. 240. 241. 242. 243. 244. 245. 246. 247. 248. 249. 250. 251. 252. 253. 254. 255. 256. 257. 258. 259. 260. 261. 262. 263. 264. 265. 266. 267. 268. 269. 270. 271. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.08.2007, 11:11 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRo Можно ли сделать что бы приоритет доступа к дискам был у чек поинтов ? Пусть на вам вопрос ответит тот кто ставил параметр NOFUZZYCKPT . Подозреваю это были не Вы, если задаете этот вопрос. Правилный ответ нельзя, Почитайте в руководстве Системного Администратора о том, что происходит вовремя checkpoint, KyRo авторБез анализа onconfig и конфигурации железа и ОС это только предположения. Про железо могу сказать следующее : Это 4 х Процессорный сервер IBM366 4 Gb Ram . База данных лежит на SCSI дисковой подсистеме Давайте iostat 1 50 во время активных изменений базы и во время длинного checkpoint. А также sar -Bu KyRo Насчет onconfig вот он : Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. Из каких соображений стоит значение 2 ? KyRo Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. NUMAIOVPS попробуйте увеличить до количества активно используемых чанков KyRo Код: plaintext 1. 2. 3. CLEANERS попробуйте увеличить до количества активно используемых чанков . KyRo Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. попробуйте значения : LRU_MAX_DIRTY 1.000000 # LRU percent dirty begin cleaning limit LRU_MIN_DIRTY 0.000000 # LRU percent dirty end cleaning limit KyRo Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. На основании чего устанавливались такие начения? RA_PAGES 128 # Number of pages to attempt to read ahead RA_THRESHOLD 64 # Number of pages left before next group У Вас DSS или OLAP база ? тогда почему так мало в SHMVIRTSIZE ? KyRo Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. А это из каких соображений устанавливалось? NOFUZZYCKPT 1 ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.08.2007, 12:59 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
KyRo Про железо могу сказать следующее : Это 4 х Процессорный сервер IBM366 4 Gb Ram . База данных лежит на SCSI дисковой подсистеме Насчет onconfig вот он : Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. 131. 132. 133. 134. 135. 136. 137. 138. 139. 140. 141. 142. 143. 144. 145. 146. 147. 148. 149. 150. 151. 152. 153. 154. 155. 156. 157. 158. 159. 160. 161. 162. 163. 164. 165. 166. 167. 168. 169. 170. 171. 172. 173. 174. 175. 176. 177. 178. 179. 180. 181. 182. 183. 184. 185. 186. 187. 188. 189. 190. 191. 192. 193. 194. 195. 196. 197. 198. 199. 200. 201. 202. 203. 204. 205. 206. 207. 208. 209. 210. 211. 212. 213. 214. 215. 216. 217. 218. 219. 220. 221. 222. 223. 224. 225. 226. 227. 228. 229. 230. 231. 232. 233. 234. 235. 236. 237. 238. 239. 240. 241. 242. 243. 244. 245. 246. 247. 248. 249. 250. 251. 252. 253. 254. 255. 256. 257. 258. 259. 260. 261. 262. 263. 264. 265. 266. 267. 268. 269. 270. 271. Подсистема ввода/вывода настроена не идеально: RA_PAGES=128 и RA_THRESHOLD=64 - установите из в 32 и 30 соответственно и, после этого, мониторьте использование упреждающего чтения, сравнивая ixda-RA+idx-RA+da-RA и RA-pgsused из выхода onstat -p - они должны быть очень близки. Какими бы большими мы эти параметры не ставили, сервер всё равно считывает за один раз не больше чем 32 страницы. Кроме того, SCSI-шина работает по принципу "один говорит - все молчат", поэтому пытаться ставить такое большое значение - значит наступать себе на хвост. Если onstat- прав и KAIO не используется, то NUMAIOVPS=8 - это маловато. Присоединяюсь к onstat-'у, начните с числа активных чанков и наблюдайте за значениями io/wup в выходе onstat -g iov - увеличивайте число AIO VP до тех пор, пока хотя бы у одного AIO VP значение не станет меньше 1 (обычно их считают десятками и сотнями; это процессы операционной системы, и каждый стоит около 1,5 Мб памяти, поэтому гораздо лучше использовать KAIO). Это логично использовать нитей-клинеров столько же, сколько и AIO VP, но проблема в том, что Вы не можете заранее знать, сколько именно их понадобится. Один клинер очищает одну LRU-очередь, поэтому их число также можно поставить в число очередей, т.е в 127. Это может показаться неэффективным, но нить - это лишь небольшая структура в памяти и она не занимает процессорного времени, пока не работает. Недостаток AIO VP, скорее всего, и является тем узким местом, которое вы ищете, но, как только их станет больше, узким местом станет число клинеров. LRU_MAX_DIRTY=8.000000 и LRU_MIN_DIRTY=2.000000 - нетрадиционные установки. Если бы этих параметров не существовало, то мы рисковали бы на чекпоинте записывать на диск весь пул буферов, если все буфера окажутся грязными. Представляете, 512 Мб (покажите по секрету выход onstat -, если Вы работаете на 64-битной версии, то и весь гигабайт) записать на диск! - это не так уж и быстро! Чтобы как-то ограничить этот объём, придумали записывать часть страниц между чекпоинтами, хотя это и не так эффективно, а именно: как только в LRU-очереди грязных страниц становится больше, чем LRU_MAX_DIRTY процентов, сервер начинает их сбрасывать на диск, и останавливается, когда процент грязных страниц опускается до LRU_MIN_DIRTY. Итого: оставляя в стороне очереди, Вы готовы к записи 8% вашего пула буферов на диск на чекпоинте. Вообще говоря, этот процент можно рассчитать: считается, что в OLTP-приложениях пользователи начинают нервничать, если чекпоинты становятся длиннее 2 секунд. Зная скорость записи на диск, можно вычислить максимальный процент грязных страниц. Это не заменяет мониторинг продолжительности чекпоинта, но даёт некоторый ориентир. А LRU_MIN_DIRTY обычно ставят на 1 процент меньше, чем LRU_MAX_DIRTY, чтобы всё же делать не так много LRU-записей. NETTYPE=ipcshm,2,200,CPU - скажите, Вы действительно ждёте 400 локальных пользователей? Тогда почему виртуальный сегмерт такой маленький (SHMVIRTSIZE=65536)? Помог бы выход onstat -g seg. RESIDENT=2 - интересно, конечно, узнать, зачем делать виртуальный сегмент резидентным? Это, кажется, ничему не вредит, но просто любопытно... DUMPCNT=1 - Вы готовы к тому, что при некоторых обстоятельствах в /tmp свалится дамп разделяемой памяти сервера? В Linux'е /tmp смотрит на физическую память, или нет - кто знает? Ну, и от fuzzy-чекпоинта (NOFUZZYCKPT=1) я бы отказываться не стал, если только не известно про какие-то ошибки в вашей версии IDS. Интересно было бы сравнить выходы onstat -g ioa, onstat -p и onstat -F до и после настройки этих параметров. К слову, а статистику вы обновляете? - PDQ-параметры не настроены, а распределение обычно строят с PDQ >10, чтобы использовать несколько процессоров... --- Желаю удачи ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.08.2007, 10:53 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
К сожалению все что просите выложить щас не могу. Чек поинта длинного пока нет . На следующейнеделе попробую его справоцировать загрузив дисковую подсистему. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. onstat -g seg Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. onstat -g iov Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. Тут вроде все что вы просили , надеюсь эти данные что то прояснят . Сейчас поставлю на крон выгрузки может получится где небуть словить чек поинт. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 16.08.2007, 13:01 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. onstat -p Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 16.08.2007, 15:16 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
onstat- KyRo Можно ли сделать что бы приоритет доступа к дискам был у чек поинтов ? Пусть на вам вопрос ответит тот кто ставил параметр NOFUZZYCKPT . Подозреваю это были не Вы, если задаете этот вопрос. Не вижу взаимосвязи. И судя по всему, вы категорически отрицаете установку этого параметра (NOFUZZYCKPT) ? onstat-Правилный ответ нельзя, Из этого ответа можно понять, что приоритета нет, но он есть :) onstat- Почитайте в руководстве Системного Администратора о том, что происходит вовремя checkpoint, Совершенно верно. Там ясно видно, что на время выполнения СР приостанавливаются все активные транзакции, кроме тех, которые находятся в критической части кода, ведущего текущий вв/выв (это вполне естественно для этой модели СР). И длительные СР чаще всего не от объема работы самой СР, а говорят просто о том, что СР ожидает (находится в стадии ожидания) завершения критической части кода одной из транзакций. onstat- RESIDENT 2 # Forced residency flag (Yes = 1, No = 0) Из каких соображений стоит значение 2 ? А чем это плохо ? У него 4 Гига памяти из которых используется менее четверти. Почему бы не оставить резидентными оба основных сегмента ? onstat- CLEANERS 8 # Number of buffer cleaner processes CLEANERS попробуйте увеличить до количества активно используемых чанков . Для начала неплохо бы увидеть загрузку этих очистителей (onstat -u после нескольких часов работы). Может оказаться, что их хватает с избытком. onstat- LRU_MAX_DIRTY 8.000000 # LRU percent dirty begin cleaning limit LRU_MIN_DIRTY 2.000000 # LRU percent dirty end cleaning limit попробуйте значения : LRU_MAX_DIRTY 1.000000 # LRU percent dirty begin cleaning limit LRU_MIN_DIRTY 0.000000 # LRU percent dirty end cleaning limit В данном случае это не нужно. При его буферном пуле в 500М его 2% составляют всего 10М, что не составит труда для сброса на диск во время СР. А ваши же параметры (1 и 0) заставять все время "лопатить" очереди LRU и непрерывно писать на диск, что не скажется лучшим образом на эффективности системы в целом. Еще раз повторюсь, что в данном случае работы самому СР по сбросу буферов достаточно мало - длительность происходит из-за ожидания остановки транзакции. Почему так происходит - отдельный вопрос. onstat- На основании чего устанавливались такие начения? RA_PAGES 128 # Number of pages to attempt to read ahead RA_THRESHOLD 64 # Number of pages left before next group А что? Нормальные значения. И дальнейшие цифры показывают прекрасную эффективность таких значений. onstat- тогда почему так мало в SHMVIRTSIZE ? Присоединяюсь. Какие то маленькие значения размеров сегментов, хотя памяти на сервере полно. onstat- DBSPACETEMP tempdbs1 # Default temp dbspaces Я бы обязательно добавил еще хотя бы один темповый спейс. onstat- А это из каких соображений устанавливалось? NOFUZZYCKPT 1 Могу сказать свои соображения для частных случаев, о которых я уже не раз писал. Наблюдая (по Hotline) несколько сот серверов 9.3 на Win2000 в жутких условиях (броски питания без UPS, выключения или перезагрузка серверов рубильником, кеширование диска/RAID на запись, нехватка админов и работа в автономном режиме), изредка (для такого количества) вижу крах системы, когда сервер после такого "выключения" не может поднятся при fast recovery, точнее, не может откатить транзакции из лога. ВО ВСЕХ случаях был фаззи СР. Ни разу не видел, чтобы такая ситуация произошла с сервером, на котором фаззи был бы выключен, т.е. NOFUZZYCKPT 1. Подозреваю, что на 9.30 механизм "нечеткой" КТ еще не был достаточно вылизан. Возможно, тут сказываются еще и особенности платформы. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 28.08.2007, 15:46 |
|
||
|
Длинный чек поинт
|
|||
|---|---|---|---|
|
#18+
Господа, не ленитесь резать процитированные сообщения, выделяя из них только самое нужное. А то очень тяжело потом искать нужную информацию среди полного вывода onconfig :) Алексан Подсистема ввода/вывода настроена не идеально: RA_PAGES=128 и RA_THRESHOLD=64 - установите из в 32 и 30 соответственно и, после этого, мониторьте использование упреждающего чтения, сравнивая ixda-RA+idx-RA+da-RA и RA-pgsused из выхода onstat -p - они должны быть очень близки. Дальнешие цифры показали прекрасную эффективность параметров (128 и 64). Так что не надо их уменьшать и уж тем более, до разницы в 2 страницы. Такие примеры (32 и 30) приводились для старых и медленных дисков, сейчас это неактуально. Алексан Какими бы большими мы эти параметры не ставили, сервер всё равно считывает за один раз не больше чем 32 страницы. Если можно - ссылку на такое ограничение, которое я вижу впервые. Возможно, вы путаете с big buffer ? Алексан Кроме того, SCSI-шина работает по принципу "один говорит - все молчат", поэтому пытаться ставить такое большое значение - значит наступать себе на хвост. Если это эффективно, т.е. почти 100% считанных страниц будет использовано в дальнейшем, то какая разница ? Даже лучше, если мы "дернем" один раз, вместо двух. Алексан RESIDENT=2 - интересно, конечно, узнать, зачем делать виртуальный сегмент резидентным? Это, кажется, ничему не вредит, но просто любопытно... например, чтобы гарантировать НЕпопадание в своп. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 28.08.2007, 16:00 |
|
||
|
|

start [/forum/search_topic.php?author=Raf_I&author_mode=last_posts&do_search=1]: |
0ms |
get settings: |
6ms |
get forum list: |
12ms |
get settings: |
4ms |
get forum list: |
11ms |
check forum access: |
2ms |
check topic access: |
2ms |
track hit: |
25ms |
get topic data: |
7ms |
get forum data: |
2ms |
get page messages: |
41ms |
get tp. blocked users: |
1ms |
| others: | 546ms |
| total: | 659ms |

| 0 / 0 |
