|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
Код: plaintext 1. 2. 3.
Собственно, вопрос в сабже. Нетрудно посчитать что количество dirty = 2714856 поделить на total = 4000000 получим 67,871%, что значительно больше start clean at 28.530% С уважением, Виктор ... |
|||
:
Нравится:
Не нравится:
|
|||
03.07.2013, 21:50 |
|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
victor16, Можно посмотреть на onconfig ? onstat -c | grep -i AUTO_LRU_TUNING onstat -c | grep -i BUFFERPOOL С уважением, Вадим. ... |
|||
:
Нравится:
Не нравится:
|
|||
03.07.2013, 23:51 |
|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
victor16, FYI .. Minimizing Buffer Turnover Rate - http://ibmdatamag.com/2013/06/minimizing-buffer-turnover-rate/ С уважением, Вадим. ... |
|||
:
Нравится:
Не нравится:
|
|||
04.07.2013, 09:38 |
|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
GVF112GVFМожно посмотреть на onconfig ? onstat -c | grep -i AUTO_LRU_TUNING onstat -c | grep -i BUFFERPOOL Код: plaintext 1. 2. 3. 4.
... |
|||
:
Нравится:
Не нравится:
|
|||
04.07.2013, 11:47 |
|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
victor16GVF112GVFМожно посмотреть на onconfig ? onstat -c | grep -i AUTO_LRU_TUNING onstat -c | grep -i BUFFERPOOL Код: plaintext 1. 2. 3.
Что показывает onstat -F, onstat -p ? С уважением, Вадим. ... |
|||
:
Нравится:
Не нравится:
|
|||
04.07.2013, 12:18 |
|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
victor16, Возможна такая ситуация (при AUTO_LRU_TUNING=1): ... After a checkpoint has occurred, if a page replacement performed a foreground write during the previous checkpoint interval, the database server increases the LRU settings by 5 percent and continues to increase the LRU flushing at each subsequent checkpoint until the foreground write stops or until the lru_max_dirty for a given buffer pool falls below 10 percent. Более детально - http://pic.dhe.ibm.com/infocenter/idshelp/v117/topic/com.ibm.perf.doc/ids_prf_276.htm С уважением, Вадим. ... |
|||
:
Нравится:
Не нравится:
|
|||
04.07.2013, 12:37 |
|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
после перезагрузки Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39.
Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20.
... |
|||
:
Нравится:
Не нравится:
|
|||
04.07.2013, 12:52 |
|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
В принципе я понял, что произошло. Стандартной командой EXECUTE FUNCTION task("defragment","<tablename>"); была запущена дефрагментация одной достаточной емкой таблицы, зеркало которого находится на слабом диске. В результате, скорость чтения старых фрагментов значительно опережала скорость записи в новый фрагмент, сервер помещал их в буферный пул, помечал их грязными, ну и получилась картина из первого сообщения. Поскольку операция дефрагментирования журналируется, соответствующим образом задействуются логический и физический журналы. Далее в последний помещаются pre-image страниц из старых фрагментов, а скинуться оттуда не успевают (зеркало то слабое, а операции записи идут параллельно), физический журнал забивается, из-за нехватки места генерится контрольная точка, которая через некоторое время блокирует все остальные действия сервера, за исключением сброса буферов в новый фрагмент. Операцию дефрагментации отменять категорически не рекомендуется, пришлось нервно ждать окончания и периодически (в момент входа контрольной точки в состояние "BLOCKED") успокаивать недовольных юзверов. Сейчас то, когда картина ясная, понятно, что нужно было предварительно отключить зеркало перед дефрагментацией. Впрочем, нет худа без добра, зеркало срочным образом заменили на новый SAS-диск :). ... |
|||
:
Нравится:
Не нравится:
|
|||
04.07.2013, 13:21 |
|
Может ли количество "грязных" буферов превышать LRU_MAX_DIRTY ?
|
|||
---|---|---|---|
#18+
victor16В принципе я понял, что произошло. Стандартной командой EXECUTE FUNCTION task("defragment","<tablename>"); была запущена дефрагментация одной достаточной емкой таблицы, зеркало которого находится на слабом диске. В результате, скорость чтения старых фрагментов значительно опережала скорость записи в новый фрагмент, сервер помещал их в буферный пул, помечал их грязными, ну и получилась картина из первого сообщения. Поскольку операция дефрагментирования журналируется, соответствующим образом задействуются логический и физический журналы. Далее в последний помещаются pre-image страниц из старых фрагментов, а скинуться оттуда не успевают (зеркало то слабое, а операции записи идут параллельно), физический журнал забивается, из-за нехватки места генерится контрольная точка, которая через некоторое время блокирует все остальные действия сервера, за исключением сброса буферов в новый фрагмент. Операцию дефрагментации отменять категорически не рекомендуется, пришлось нервно ждать окончания и периодически (в момент входа контрольной точки в состояние "BLOCKED") успокаивать недовольных юзверов. Сейчас то, когда картина ясная, понятно, что нужно было предварительно отключить зеркало перед дефрагментацией. Впрочем, нет худа без добра, зеркало срочным образом заменили на новый SAS-диск :). Да, прикольно. ... кто мог подумать, что и такое возможно .. :) С уважением, Вадим. PS: There are more things in heaven and earth, Horatio, Than are dreamt of in your philosophy. (W. Shakespeare, Hamlet) ... |
|||
:
Нравится:
Не нравится:
|
|||
04.07.2013, 15:04 |
|
|
start [/forum/topic.php?fid=44&gotonew=1&tid=1607038]: |
0ms |
get settings: |
28ms |
get forum list: |
15ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
41ms |
get topic data: |
10ms |
get first new msg: |
9ms |
get forum data: |
2ms |
get page messages: |
233ms |
get tp. blocked users: |
2ms |
others: | 290ms |
total: | 638ms |
0 / 0 |