|
|
|
Дамп больших таблиц в PROGRESS
|
|||
|---|---|---|---|
|
#18+
Итак. Есть база данных под PROGRESS 9.1D. Сама база состоит с нескольких файлов (35 частей по 256 МБ). Нужно слить ето все в текстовый файл (в принципе не важно во что слить, лиш бы потом можно было заново залить данные в базу). Проблема состоит в том, что в самой базе есть таблича размером больше 2-х Гигабайт. И при выполнении дампа прогрес слетает с ошибкой: Код: plaintext 1. 2. 3. 4. 5. 6. Файловая система ext3, так что вроде проблем с размером файла со стороны системы не должно быть. Может есть у когото идеи на этот щет ? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.02.2009, 18:29 |
|
||
|
Дамп больших таблиц в PROGRESS
|
|||
|---|---|---|---|
|
#18+
taurus.rpd, dвот что рекомендует один производитель АБС. сам не пробывал. Перед выполнением дампа надо убедится, что размер всех таблиц находится в пределах 2ГБ, для этого надо запустить БИСквит с параметром tabanalys с перенаправлением вывода в файл (можно и на работающей базе): bq41c tabanalys > analys.log После окончания анализа, который может длиться достаточно долго и зависит от размера БД и степени фрагментации БД, посмотреть в полученном файле размеры таблиц. Если есть превышение, то можно воспользоваться следующим алгоритмом: 1) Для каждой таблицы, размеры которой превышают 2ГБ, создаем в каталоге $BQ/dump специальный файл типа pipe, например, для таблиц history и dataline: mknod history.d p mknod dataline.d p 2) Делаем перенаправление при выводе в эти файлы через архиватор gzip: gzip -c <history.d >history.gz & gzip -c <dataline.d >dataline.gz & В результате получим архивы history.gz и dataline.gz. Затем выполняем выгрузку, описанную в следующем пункте. Указанные команды используются в скрипте conv89_1 3) В дальнейшем на этапе загрузки этих таблиц с помощью bulkload произойдет «зависание» - это означает, что программа загрузки ожидает данные из входного потока. В этот момент в дополнительной сессии необходимо выполнить обратные команды (скрипт conv89_4): gzip -cd history.gz >history.d & gzip -cd dataline.gz >dataline.d & Сразу же bulkload выдаст предупреждающее сообщение: Warning: Unable to read the .d trailer. Do you want to use ibm866 as the code page for conversion? [y/n]: (9271) Надо ответить y и нажать Enter. Однако, при массированной загрузке всех таблиц могут возникнуть проблемы. В таком случае, рекомендуется произвести раздельную загрузку сжатых данных. Сделать файлы описания для каждой таблицы history.fd и dataline.fd. Последовательно выполнить загрузку. В одной сессии запускаем bulkload с history.fd, в момент зависания переходим в другую сессию и даем команду gzip -cd history.gz >history.d &. Аналогичные действия для dataline. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.02.2009, 14:23 |
|
||
|
|

start [/forum/topic.php?fid=56&fpage=21&tid=2015814]: |
0ms |
get settings: |
10ms |
get forum list: |
14ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
64ms |
get topic data: |
13ms |
get forum data: |
3ms |
get page messages: |
37ms |
get tp. blocked users: |
2ms |
| others: | 12ms |
| total: | 163ms |

| 0 / 0 |

Извините, этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
... ля, ля, ля ...