|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Нужно на сервер залить большой объем данных (sql: 17 гиг, lob: 38 гиг). Файлы данных, клиент, сервер находятся на одной физической машине. Загружаю через IBExpert. Сейчас прогнозированное время загрузки 117 часов. Вопрос: можно ли как-то радикально увеличить скорость загрузки настройками сервера? Индексов в базе нет. Триггеры отключены. Операция разовая. Идею выгружать данные в разные файлы, а потом грузить несколькими клиентами знаю и сейчас над ней думаю С уважением, Vasilisk ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 14:22 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
_Vasilisk_, IBeScript быстрее будет, чем IBExpert (хотя автор у них один). Если есть возможность использовать RAMDisk для временных файлов и разнести сервер и клиент на разные процы. А машина какая (CPU,RAM, hdd/ssd) ? Удачи ! ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 14:34 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
_Vasilisk_, _Vasilisk_потом грузить несколькими клиентами только в разные таблицы. ssd ? ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 14:35 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
FW = off. XNET. Ну и просто посмотреть resmon-ом где, собственно, бутылочное горлышко. Posted via ActualForum NNTP Server 1.5 ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 14:40 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Dimitry Sibiryakov XNET ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 14:59 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
AltHasp IBeScript быстрее будет, чем IBExper AltHasp RAMDisk для временных файлов AltHasp А машина какая (CPU,RAM, hdd/ssd) ? kdv только в разные таблицы. Dimitry Sibiryakov FW = off. XNET. ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 15:01 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
hvladembedded, какой xnet Так-то оно, конечно, да, но у меня теплится надежда на возможность распараллеливания работы СУБД и клиента, парсящего файлы. Posted via ActualForum NNTP Server 1.5 ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 15:08 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Dimitry Sibiryakov у меня теплится надежда на возможность распараллеливания работы СУБД и клиента, парсящего файлы. Клиент вполне может попробовать в несколько потоков загружать данные. ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 15:34 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
_Vasilisk_, ещё есть EXTERNAL TABLE, но их нужно уметь готовить, и понимать проблемы с нуллами ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 15:35 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
hvlad, так они же вроде не умеют работать с блобами, а у ТС большая часть базы из них ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 15:41 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Симонов Денис, да, блобы я упустил ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 16:02 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Dimitry Sibiryakov Так-то оно, конечно, да, но у меня теплится надежда на возможность распараллеливания работы СУБД и клиента, парсящего файлы. hvlad ещё есть EXTERNAL TABLE, ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 16:09 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
_Vasilisk_ Идею выгружать данные в разные файлы, а потом грузить несколькими клиентами знаю и сейчас над ней думаю Я так делаю. База и входные данные на полтора десятичных порядков больше, чем у вас, время загрузки одним клиентом около месяца. данные раскидываются по всем таблицам, тех около 200. Провел эксперимент с параллельными клиентами. Дедлоки случаются, но нечасто, данные сравнительно хорошо сегментированы. Опытным путем определил оптимум в 4 клиента. И да, загрузка быстрее в разы, если не в 4, то раза в 3 точно. Все клиенты и сервер на одном компьютере. Но в моей задаче довольно много работы у клиента - парсит xml файлы. ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 16:10 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
shalamyansky, На похожей задаче в дополнение к многопотоковому парсингу/вставке за счет применения FireDAC Array DML у меня получилось дополнительно ускориться еще примерно на 40%. ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 17:12 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Vlad F, Batch API 4.0 рулит 22080521 но только при использовании сетевых протоколов. На embedded никакого выигрыша не даёт, что ожидаемо ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 17:18 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Симонов Денис, Четверки я на том проекте так и не дождался, однако и на тройке, причем, именно в embedded варианте, получил описанное ускорение. Так что затеваться, имхо, стоит. ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 17:26 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Симонов Денис Batch API 4.0 рулит 22080521 но только при использовании сетевых протоколов. На embedded никакого выигрыша не даёт, что ожидаемо ... |
|||
:
Нравится:
Не нравится:
|
|||
03.06.2020, 18:13 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
Я бы еще входные данные поделил на кусочки, или заранее продумал что делать в случае частичного импорта. Т.е. если на 101 часе "что-то пошло не так" и загрузка прервалась, что бы можно было грузить не опять все заново а хотя бы не все, или в идеале - только то что еще не загружено. ... |
|||
:
Нравится:
Не нравится:
|
|||
04.06.2020, 03:54 |
|
Ускорение импорта данных
|
|||
---|---|---|---|
#18+
_Vasilisk_, правильно. Любой дополнительный слой создаёт дополнительные издержки ... |
|||
:
Нравится:
Не нравится:
|
|||
04.06.2020, 09:19 |
|
|
start [/forum/topic.php?fid=40&fpage=14&tid=1560337]: |
0ms |
get settings: |
10ms |
get forum list: |
11ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
68ms |
get topic data: |
12ms |
get forum data: |
3ms |
get page messages: |
60ms |
get tp. blocked users: |
2ms |
others: | 10ms |
total: | 184ms |
0 / 0 |