Новые сообщения [новые:0]
Дайджест
Горячие темы
Избранное [новые:0]
Форумы
Пользователи
Статистика
Статистика нагрузки
Мод. лог
Поиск
|
22.06.2017, 13:53
|
|||
---|---|---|---|
|
|||
Как заставить pg_backupset жрать процессор при архивировании? -z |
|||
#18+
Добрый день. Смотрю из 64 процов загружается только один. Можно как-нить заставить загрузить 4 проца, например? ... |
|||
:
Нравится:
Не нравится:
|
|||
|
22.06.2017, 13:53
|
|||
---|---|---|---|
|
|||
Как заставить pg_backupset жрать процессор при архивировании? -z |
|||
#18+
виндоус ... |
|||
:
Нравится:
Не нравится:
|
|||
|
22.06.2017, 14:07
|
|||
---|---|---|---|
|
|||
Как заставить pg_backupset жрать процессор при архивировании? -z |
|||
#18+
Константин Сергеевич ДереркДобрый день. Смотрю из 64 процов загружается только один. Можно как-нить заставить загрузить 4 проца, например? 1)использовать новую версию pg и далее делать pg_dump -F d -j (8-16-32 сколько не жалко) 2)делать backup с -Z 0 а потом сжимать каким то внешним архиватором который умеет в много потоков делать (можно наверное даже через pipe соединить) 3)поставить -Z 2 (вместо умолчательных -Z 9... все еще 1 ядро будет но раза в 3 быстрее за счет меньшего сжатия) 4)снимать backup удаленно с Linux сервера где легко делается pg_dump | pbzip2 5)смирится -- Maxim Boguk dataegret.ru ... |
|||
:
Нравится:
Не нравится:
|
|||
|
22.06.2017, 14:40
|
|||
---|---|---|---|
|
|||
Как заставить pg_backupset жрать процессор при архивировании? -z |
|||
#18+
Maxim BogukКонстантин Сергеевич ДереркДобрый день. Смотрю из 64 процов загружается только один. Можно как-нить заставить загрузить 4 проца, например? 1)использовать новую версию pg и далее делать pg_dump -F d -j (8-16-32 сколько не жалко) 2)делать backup с -Z 0 а потом сжимать каким то внешним архиватором который умеет в много потоков делать (можно наверное даже через pipe соединить) 3)поставить -Z 2 (вместо умолчательных -Z 9... все еще 1 ядро будет но раза в 3 быстрее за счет меньшего сжатия) 4)снимать backup удаленно с Linux сервера где легко делается pg_dump | pbzip2 5)смирится -- Maxim Boguk dataegret.ru Большое спасибо, впитываю информацию. ... |
|||
:
Нравится:
Не нравится:
|
|||
|
23.06.2017, 10:21
|
|||
---|---|---|---|
|
|||
Как заставить pg_backupset жрать процессор при архивировании? -z |
|||
#18+
Мы вызываем через pipe на бэкапном linux сервере pigz с коэффициентом сжатия 4 в 12 процессов (всего на сервере 16 ядер). Бэкапный сервер находится с мастером в одной стойке, соединены 10 Гбит. Код: plaintext
Код: plaintext 1. 2.
Maxim Boguk1)использовать новую версию pg и далее делать pg_dump -F d -j (8-16-32 сколько не жалко)Но ведь это покажет положительный эффект только если в базе много крупных таблиц? Антипаттерн - одна огромная таблица. ... |
|||
:
Нравится:
Не нравится:
|
|||
|
23.06.2017, 15:04
|
|||
---|---|---|---|
|
|||
Как заставить pg_backupset жрать процессор при архивировании? -z |
|||
#18+
LeXa NalBatMaxim Boguk1)использовать новую версию pg и далее делать pg_dump -F d -j (8-16-32 сколько не жалко)Но ведь это покажет положительный эффект только если в базе много крупных таблиц? Антипаттерн - одна огромная таблица. Это действительно не работает если в базе есть 1-2-3 таблицы занимающие большую часть места. Так что замечание про антипаттерн - оно правильное да. Но в остальных случаях часто решение с | pigz или | pbzip2 будет упираться не в сжатие а в 1 процесс copy на backend базы. Т.е. в нормальных условиях - pg_dump -j N - будет более эффективен (если будете тестить - не забейте 10Gbit у себя что в общем несложно сделать). -- Maxim Boguk dataegret.ru ... |
|||
:
Нравится:
Не нравится:
|
|||
|
|
start [/forum/topic.php?fid=53&mobile=1&tid=1996420]: |
0ms |
get settings: |
10ms |
get forum list: |
15ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
29ms |
get topic data: |
13ms |
get forum data: |
3ms |
get page messages: |
50ms |
get tp. blocked users: |
2ms |
others: | 15ms |
total: | 145ms |
0 / 0 |