|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
alexeyvgОбычно данные из разнородных источников в хранилище импортируют, используя SSIS. Загрузку/выгрузку всё равно придётся писать - вы же не будете реплицировать данные прямо в формат хранилища, производя по ходу заодно очистку данных, приведение к общим справочникам и т.д. конечно - загрузку/выгрузку надо обслужить, но механизмы SSIS - это стандартные механизмы , примочки для меня что-то написаное дополнительно под данную задачу, например в C# к филиалам нет постоянного подключения, доступ будет только в ночное время филиалов этак от 10 до 30 может быть оставляя все на записе/выгрузке с помошью SSIS из централи - вещаем процессы на один центальный сервер :(, где у нас только механизмы Standarta а какая разница тогда записи в файл или сразу в базу в промежуточную таблицу и потом их очищение? передача через файлы - возможен риск потери данных - часть файлов передана, часть нет, при репликации все пошло или ничего меня интересуют более детальные подробности процесса - если не репликация то что вместо нее? процесс нужен автоматический общие справочники как вы ето делали? - просто файлы xls или более приятное решение для пользователя? ... |
|||
:
Нравится:
Не нравится:
|
|||
31.10.2010, 11:27 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonora, ваш вариант: перенос в Express + репликация второй вариант: ETL сразу в хранилище как бы второй вариант проще, а чем проще система, тем надежнее ... |
|||
:
Нравится:
Не нравится:
|
|||
31.10.2010, 13:07 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
А это все таки сработало :) Репликация в этом проекте сделала свое дело! Было подключено 30 компаний, а среднее время подключения каждой новой составляло 10 рабочих дней. 150 пользователей были подключены к системе Targit и 74 пользователя к системе Prophix. Targit использовался для стратегической поддержки компании, а Prophix - для поддержки оперативного управления. Кроме того, было создано центральное хранилище данных, 11 кубов OLAP, 120 мер и 55 измерений. ... |
|||
:
Нравится:
Не нравится:
|
|||
14.06.2021, 23:29 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
не прошло и 11 лет ... |
|||
:
Нравится:
Не нравится:
|
|||
15.06.2021, 16:57 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Не все так плохо :) , просто как то не получалось написать об этом Клиент дальше использует проготовленые механизмы, только немного вложился в "железо" Да и DWH уже в разы побольше ... |
|||
:
Нравится:
Не нравится:
|
|||
15.06.2021, 17:34 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonora Не все так плохо :) , просто как то не получалось написать об этом Клиент дальше использует проготовленые механизмы, только немного вложился в "железо" Да и DWH уже в разы побольше как раз когда все уже успели в клауд перехать, самое время в железо вложиться ... |
|||
:
Нравится:
Не нравится:
|
|||
15.06.2021, 18:01 |
|
|
start [/forum/topic.php?fid=49&msg=40077730&tid=1857124]: |
0ms |
get settings: |
10ms |
get forum list: |
14ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
35ms |
get topic data: |
12ms |
get forum data: |
3ms |
get page messages: |
42ms |
get tp. blocked users: |
2ms |
others: | 250ms |
total: | 376ms |
0 / 0 |