|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Привет всем! Хочу обратиться к вам за советом "Потею" над довольно интересной задачкой - в одно хранилище надо собрать данные из 15 филиалов По приблизительной оценке будет около 100гб и больше Каждый филиал работает на своей БД (Postgres, Firebird), свои картотеки, свои продукты В хранилище ето все собирается, стандардизируется и на выходе 5 кубов дла анализирования - Продажа, Покупки, Запасы - документы, Запасы-на месте, Финансы придумали так - в каждом филиале ставим MS SQL Express, в центре - MS SQL Standard, на центральном сервере для каждого филиала своя БД, между ними идет репликация данных и отдельно - БД - хранилище данных - kuda собираються даные в таблицы фактов, таблицы измерений Пока что на таблицах нигде нет ключей Подскажите на что обратить внимание при таком большом объеме данных, может даже стоит что-то сделать по другому, первый раз собираю все в одну кучу :( Очень боюсь что в конце, когда вроде все построенно, получиться большой "БУМ" и все рухнет ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 18:49 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonora, а кубы у Вас на MS Analysis Services будут? ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 19:00 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonora придумали так - в каждом филиале ставим MS SQL Express, в центре - MS SQL Standard, На стандарте у вас будут ограничения... - отсутствие линкованных мер и измерений, - из полуаддитивных мер только LastChild, - ограничения в SSIS по работе с кубами. Это то, что на вскидку вспомнил. ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 19:52 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonoraПодскажите на что обратить внимание при таком большом объеме данныхна файловую систему: больше быстрых дисков и раскидывание таблиц по дискам ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 19:53 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Дедушкаeleonora придумали так - в каждом филиале ставим MS SQL Express, в центре - MS SQL Standard, На стандарте у вас будут ограничения... - отсутствие линкованных мер и измерений, - из полуаддитивных мер только LastChild, - ограничения в SSIS по работе с кубами. Это то, что на вскидку вспомнил. Подробнее здесь - Только одна группа мер - Партицирование - Перспективы - Custom Rollup - Write Back - Data Compression - может быть критично, если ограничены в дисковых ресурсах ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 20:23 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
maxol67eleonora, а кубы у Вас на MS Analysis Services будут? конечно, 2008 Dmitry BiryukoveleonoraПодскажите на что обратить внимание при таком большом объеме данныхна файловую систему: больше быстрых дисков и раскидывание таблиц по дискам проверю - на сервере два диска - на одном система , на другом базы sql а takoe можнo сделать v standarde? а что с ключами/индексами таблиц надо сделать? ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 20:26 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
еще довольно неприятная вещь - после прохода пакета переброса данных с базы одного филиала (10Гб) до хранилища (13гб) файл лога вырос до 46Гб можно ли как то избавится вообше от него? что бы операции не записывались в log ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 20:30 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Bigheadman- Только одна группа мер - Партицирование - Перспективы - Custom Rollup - Write Back - Data Compression - может быть критично, если ограничены в дисковых ресурсах Мда, невесело но нас поставили перед фактом - работаем со standardom в измерениях обязательно ли, что бы ключи были по integer? картотеки в основном текстовые ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 20:39 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Дедушкаeleonora придумали так - в каждом филиале ставим MS SQL Express, в центре - MS SQL Standard, На стандарте у вас будут ограничения... - отсутствие линкованных мер и измерений, . Вот с этим на стандарте все хорошо ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 22:07 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonoraеще довольно неприятная вещь - после прохода пакета переброса данных с базы одного филиала (10Гб) до хранилища (13гб) файл лога вырос до 46Гб можно ли как то избавится вообше от него? что бы операции не записывались в log почитать тут и ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 22:13 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
100 Гб - не сказал бы что большое хоронилище ... |
|||
:
Нравится:
Не нравится:
|
|||
27.10.2010, 22:22 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonora, Тесты и конфигурацию систем посмотрите на TPC_H Попытка экономить на лицензиях вам ничего не даст, вам еще железо нужно будет соответствующее покупать с соответствующими дисковыми массивами... потому ставьте SQL 2008 R2 EE Сурогатные ключи (int) должны быть обязательно, это даже не обсуждается - тыщу раз везде обсуждалось и во всех книгах и статьях описано, что и зачем, я лично уже замотался это всем доказывать... Репликация данных? Что прям самая настоящая репликация? Если так - откажитесь от нее. Работайте через промежуточные файлы - с одной базы выгружаете, в другую загружаете... А самый лучший совет, если вы хотите получить ощутимый и быстрый результат - найдите специалиста по ХД или наймите компанию на разработку. ... |
|||
:
Нравится:
Не нравится:
|
|||
28.10.2010, 10:01 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Bigheadman - Только одна группа мер Пардон, а где это написано? ... |
|||
:
Нравится:
Не нравится:
|
|||
28.10.2010, 13:24 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Voyager_lan почитать тут и тут спасибо огромное Полковник Сурогатные ключи (int) должны быть обязательно, это даже не обсуждается - Опыта у меня всего полгода в этой области , пока всему еще учусь - поэтому извините за простые-глупые вопросы на курсах не акцентировалось внимание на такие клучи, пожалуйста - ткните носом в хорошую статейку на эту тему ... |
|||
:
Нравится:
Не нравится:
|
|||
28.10.2010, 14:07 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Полковникeleonora, Репликация данных? Что прям самая настоящая репликация? Если так - откажитесь от нее. Работайте через промежуточные файлы - с одной базы выгружаете, в другую загружаете... А почему нет? как тогда обеспечит пересылку данных в центр? писать дополнительные "промочки" ... |
|||
:
Нравится:
Не нравится:
|
|||
28.10.2010, 14:11 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonora, Здесь статьи по суррогатным ключам. infology.ru Ниже отрывок из книги "The Microsoft Data Warehouse Toolkit : With SQL Server 2005 and the Microsoft Business Intelligence Toolset" Surrogate Keys The primary key for dimension tables should be a surrogate key assigned and managed by the DW/BI system. The most common method for creating surrogate keys is to use the IDENTITY property on the surrogate key column. Every time a row is inserted, the identity column populates itself by incrementing. Check to ensure the surrogate key column is an integer data type. Choose the appropriate integer type given the anticipated size of the dimension: Tinyint takes values in the range 0 to 255, and requires 1 byte of storage Smallint ranges from -215 (-32,768) to 215-1 (32,767), and takes 2 bytes Int ranges from -231 to 231-1, and takes 4 bytes Bigint ranges from -263 to 263-1 and takes 8 bytes Choose the smallest integer type that will work for your dimension. This isn’t very important for the dimension table itself, but it’s vital for the fact table’s storage and performance. These same surrogate keys show up as foreign keys in the fact table. Using the small data types is also important for minimizing memory use during data processing. Make sure you use the same integer types for the fact table as for the corresponding dimension tables. We usually frown on using meaningful surrogate keys—which is something of an oxymoron—but we make an exception in every DW/BI system we build. The Date dimension should use a surrogate key. That surrogate key should be an integer. But it’s awfully convenient for it to be a meaningful integer of the form year-month-day, such as 20050723. Developers are people, too. Книжка у меня есть в электронном виде, могу прислать на почту. ... |
|||
:
Нравится:
Не нравится:
|
|||
28.10.2010, 14:25 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
В данном случае надо заплатить денег профессионалам хотя бы на этап обследования и подготовки ТЗ с архитектурой системы. И опыт неоценимый получите и решение будет рабочим. ... |
|||
:
Нравится:
Не нравится:
|
|||
28.10.2010, 14:49 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Полковникeleonora, Здесь статьи по суррогатным ключам. infology.ru Ниже отрывок из книги "The Microsoft Data Warehouse Toolkit : With SQL Server 2005 and the Microsoft Business Intelligence Toolset" Книжка у меня есть в электронном виде, могу прислать на почту. Пришлите мне, пожалуйста, я почитаю. ... |
|||
:
Нравится:
Не нравится:
|
|||
28.10.2010, 21:21 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
я бы отказался от репликации, в первую очередь. Далее - убедил использовать SS 2008 r2 EE(!) разница в цене намного меньше цены решения всех проблем, которые обязательно возникнут. если филиалы уже работают на каких-то БД, то наверное не имеет смысла ставить рядом еще SS. надо сразу выгружать файлы и отправлять их в центр. ... |
|||
:
Нравится:
Не нравится:
|
|||
29.10.2010, 01:53 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Djeki, Ушло на почту под ником. ... |
|||
:
Нравится:
Не нравится:
|
|||
29.10.2010, 10:00 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Полковникeleonora, Книжка у меня есть в электронном виде, могу прислать на почту. да, пожалуйста пришлите - eleonoras@hotmail.ru ... |
|||
:
Нравится:
Не нравится:
|
|||
30.10.2010, 13:30 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
СоветВ данном случае надо заплатить денег профессионалам хотя бы на этап обследования и подготовки ТЗ с архитектурой системы. И опыт неоценимый получите и решение будет рабочим. вот я и обратилась к СПЕЦИАЛИСТАМ ;) ТЗ написано, разрисовано только воплощая его в жизнь задумалась над некоторыми аспектами, стараясь понять и может быть улучшить предложеное Пока сам не начнешь делать - опыта не прибудет. не понятно почему отбрасываете репликацию данных? - ведь тогда задействованы механизмы MS SQL и не надо мучится и писать "примочки" выгрузки-загрузки если филиалы уже работают на каких-то БД, то наверное не имеет смысла ставить рядом еще SS. надо сразу выгружать файлы и отправлять их в центр. Конечно работают на своих БД - PostgreSQL,Firebird, dbf а какие механизмы вы тогда используете что бы это работало без вмешательства человека? из опыта подскажите - как лучше стандартизировать данные - под этим понимаю что -то такое - филиалы используют svoi системы ERP, свои картотеки клиентов/продуктов - а анализировать хотят общие данные - как вы решаете такую проблему? ... |
|||
:
Нравится:
Не нравится:
|
|||
30.10.2010, 13:51 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonoraне понятно почему отбрасываете репликацию данных? - ведь тогда задействованы механизмы MS SQL и не надо мучится и писать "примочки" выгрузки-загрузки а какие механизмы вы тогда используете что бы это работало без вмешательства человека?Обычно данные из разнородных источников в хранилище импортируют, используя SSIS. Загрузку/выгрузку всё равно придётся писать - вы же не будете реплицировать данные прямо в формат хранилища, производя по ходу заодно очистку данных, приведение к общим справочникам и т.д. ... |
|||
:
Нравится:
Не нравится:
|
|||
30.10.2010, 15:29 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
eleonora...Каждый филиал работает на своей БД (Postgres, Firebird)... в каждом филиале ставим MS SQL Express... Скажите, а как вы предполагали переносить данные из первичных учётных систем филиала (на Firebird, например) в SQL Express? ... |
|||
:
Нравится:
Не нравится:
|
|||
31.10.2010, 10:31 |
|
Большой объем данных - Хранилище > 100Гб
|
|||
---|---|---|---|
#18+
Дедушкаeleonora...Каждый филиал работает на своей БД (Postgres, Firebird)... в каждом филиале ставим MS SQL Express... Скажите, а как вы предполагали переносить данные из первичных учётных систем филиала (на Firebird, например) в SQL Express? ODBC, sqlcmd ... |
|||
:
Нравится:
Не нравится:
|
|||
31.10.2010, 10:53 |
|
|
start [/forum/search_topic.php?author=%D0%90%D0%BB%D0%B5%D0%BA%D1%81%D0%B0%D0%BD%D0%B4%D1%80+%D0%9F%D0%B0%D0%B2%D0%BB%D0%BE%D0%B2&author_mode=last_topics&do_search=1]: |
0ms |
get settings: |
11ms |
get forum list: |
15ms |
get settings: |
10ms |
get forum list: |
14ms |
check forum access: |
3ms |
check topic access: |
3ms |
track hit: |
28ms |
get topic data: |
13ms |
get forum data: |
3ms |
get page messages: |
61ms |
get tp. blocked users: |
1ms |
others: | 10635ms |
total: | 10797ms |
0 / 0 |