|
Как заставить pg_backupset жрать процессор при архивировании? -z
|
|||
---|---|---|---|
#18+
Добрый день. Смотрю из 64 процов загружается только один. Можно как-нить заставить загрузить 4 проца, например? ... |
|||
:
Нравится:
Не нравится:
|
|||
22.06.2017, 13:53 |
|
Как заставить pg_backupset жрать процессор при архивировании? -z
|
|||
---|---|---|---|
#18+
виндоус ... |
|||
:
Нравится:
Не нравится:
|
|||
22.06.2017, 13:53 |
|
Как заставить pg_backupset жрать процессор при архивировании? -z
|
|||
---|---|---|---|
#18+
Константин Сергеевич ДереркДобрый день. Смотрю из 64 процов загружается только один. Можно как-нить заставить загрузить 4 проца, например? 1)использовать новую версию pg и далее делать pg_dump -F d -j (8-16-32 сколько не жалко) 2)делать backup с -Z 0 а потом сжимать каким то внешним архиватором который умеет в много потоков делать (можно наверное даже через pipe соединить) 3)поставить -Z 2 (вместо умолчательных -Z 9... все еще 1 ядро будет но раза в 3 быстрее за счет меньшего сжатия) 4)снимать backup удаленно с Linux сервера где легко делается pg_dump | pbzip2 5)смирится -- Maxim Boguk dataegret.ru ... |
|||
:
Нравится:
Не нравится:
|
|||
22.06.2017, 14:07 |
|
Как заставить pg_backupset жрать процессор при архивировании? -z
|
|||
---|---|---|---|
#18+
Maxim BogukКонстантин Сергеевич ДереркДобрый день. Смотрю из 64 процов загружается только один. Можно как-нить заставить загрузить 4 проца, например? 1)использовать новую версию pg и далее делать pg_dump -F d -j (8-16-32 сколько не жалко) 2)делать backup с -Z 0 а потом сжимать каким то внешним архиватором который умеет в много потоков делать (можно наверное даже через pipe соединить) 3)поставить -Z 2 (вместо умолчательных -Z 9... все еще 1 ядро будет но раза в 3 быстрее за счет меньшего сжатия) 4)снимать backup удаленно с Linux сервера где легко делается pg_dump | pbzip2 5)смирится -- Maxim Boguk dataegret.ru Большое спасибо, впитываю информацию. ... |
|||
:
Нравится:
Не нравится:
|
|||
22.06.2017, 14:40 |
|
Как заставить pg_backupset жрать процессор при архивировании? -z
|
|||
---|---|---|---|
#18+
Мы вызываем через pipe на бэкапном linux сервере pigz с коэффициентом сжатия 4 в 12 процессов (всего на сервере 16 ядер). Бэкапный сервер находится с мастером в одной стойке, соединены 10 Гбит. Код: plaintext
Код: plaintext 1. 2.
Maxim Boguk1)использовать новую версию pg и далее делать pg_dump -F d -j (8-16-32 сколько не жалко)Но ведь это покажет положительный эффект только если в базе много крупных таблиц? Антипаттерн - одна огромная таблица. ... |
|||
:
Нравится:
Не нравится:
|
|||
23.06.2017, 10:21 |
|
Как заставить pg_backupset жрать процессор при архивировании? -z
|
|||
---|---|---|---|
#18+
LeXa NalBatMaxim Boguk1)использовать новую версию pg и далее делать pg_dump -F d -j (8-16-32 сколько не жалко)Но ведь это покажет положительный эффект только если в базе много крупных таблиц? Антипаттерн - одна огромная таблица. Это действительно не работает если в базе есть 1-2-3 таблицы занимающие большую часть места. Так что замечание про антипаттерн - оно правильное да. Но в остальных случаях часто решение с | pigz или | pbzip2 будет упираться не в сжатие а в 1 процесс copy на backend базы. Т.е. в нормальных условиях - pg_dump -j N - будет более эффективен (если будете тестить - не забейте 10Gbit у себя что в общем несложно сделать). -- Maxim Boguk dataegret.ru ... |
|||
:
Нравится:
Не нравится:
|
|||
23.06.2017, 15:04 |
|
|
start [/forum/topic.php?fid=53&tid=1996420]: |
0ms |
get settings: |
10ms |
get forum list: |
15ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
42ms |
get topic data: |
10ms |
get forum data: |
2ms |
get page messages: |
41ms |
get tp. blocked users: |
1ms |
others: | 17ms |
total: | 146ms |
0 / 0 |