Этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
Политика конфиденциальности
|
|
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
Нужно подобрать OLAP-средство, которое могло бы за приемлемое время (не более десятка секунд) работать с кубом: 30 измерений, 250 000 записей в табл фактов. Иерархия желательна. Динамическая работа - обязательна!Ктонить может подсказать продукт? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.11.2003, 16:40 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Volj: которое могло бы за приемлемое время (не более десятка секунд) работать с кубом За десять секунд хотите сгенерировать куб, или чтобы каждый отчет на основе куба генерировался за 10 секунд? Динамическая работа - обязательна Что Вы имеете в виду под динамической работой - чтобы данные в кубе хранились как ROLAP и отчеты создавались на основе SQL-запросов, а не на основе многомерных запросов? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.11.2003, 17:17 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
За десять секунд хотите сгенерировать куб, или чтобы каждый отчет на основе куба генерировался за 10 секунд? Вращать куб и открывать новые измерения. Что Вы имеете в виду под динамической работой - чтобы данные в кубе хранились как ROLAP и отчеты создавались на основе SQL-запросов, а не на основе многомерных запросов? Я "скрываю" произвольное к-во членов произвольных измерений. Чтобы это не тормозило... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.11.2003, 17:23 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Volj: Думаю Вам стоит потестировать OLAP-сервер Cognos PowerPlay (заказать ознакомительную версию можно через сайт http://cognos.narod.ru ). Несколько месяцев назад я проводил тестирование этого продукта - создал куб с 30 измерениями (в каждом - по 5 уровней иерархии), и этот куб крутился очень шустро (по 10 секунд ждать не приходилось). ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.11.2003, 17:39 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Jurii: А сколько записей было в табл фактов? Сколько занимала первоначальная подготовка данных? На каком сервере все крутилось? Просто Вы, как я заметил, являетесь специалистом по Cognos ( ;-) ), а я пока разберусь... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.11.2003, 17:48 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Volj: А сколько записей было в табл фактов? Записей было немного, всего 1000, но зато в каждом из 30 измерений было более 1000 членов/категорий/листьев. Мой опыт подсказывает, что на 250 тысячах записей все будет работать также быстро. Сколько занимала первоначальная подготовка данных? Это был тест, я готовил абстрактные данные в Excel. занятие это было муторным. Но я не понимаю, почему Вас интересует этот вопрос - у Вас то будет другой источник данных... На каком сервере все крутилось? , Конфигурацию не помню, но сервер был более чем скромный. Cognos PowerPlay умеет работать даже на 486 компьютерах с 16 мегами оперативной памяти. Просто Вы, как я заметил, являетесь специалистом по Cognos ( ;-) ), а я пока разберусь... Да, у меня опыт в области Cognos - более 4 лет, это немало. Если хотите - могу поделиться :) Пишите запрос через сайт http://cognos.narod.ru ... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.11.2003, 18:08 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
2 Volj Теория и практика говорят о том, что у серверов MOLAP существуют определённые проблемы (sparsity и database explosion), которые не каждый производитель умеет решать одинаково хорошо. На мой взгляд, 30 измерений - достаточно много для одного куба. Поделитесь, пожалуйста, что за проблему решаете. По таблице фактов, вроде бы всё нормально - маленькая. Мне кажется, что можно посмотреть в сторону ROLAP (в частности Microstrategy). При таком небольшом количествео записей с производительностью проблем не будет. Хотя, возможно, это не тот случай, когда нужно такое мощное средство. Возможно, и инструменты попроще типа Cognos или Business Objects подойдут. Тут ещё в расчёт надо принимать количество пользователей, удобство разработки, эффективное управление метаданными, желание работать через Web, соображения безопасности и другие критерии выбора любой аналитической системы. Рекомендую также ознакомиться со статьёй OLAP Data Scalability (http://www.dmreview.com/master.cfm?NavID=198&EdID=7636). Будет понятие о том, какие вопросы задавать людям, которые будут пытаться Вам продать OLAP-сервер. С уважением, Константин Лисянский http://lissianski.narod.ru/olap.html ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.11.2003, 22:10 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
Думаю что какой вопрос (не про что) такие и ответы будут. 1.Здесь каждый будет "рекламировать" то с чем работал. Найти специалиста который бы адекватно, да и ещё бесплатно сделал бы сравнительный анализ, скорее всего будет проблемотично. 2. А с вашей постановкой вопроса типа "хочу счастья" и не получится дать адекватный ответ. Счастья хотят все. И если был бы самый лучший инструмент, то все на нём бы и работали. 3. И действительно зачем 30 (!!!!) измерений??? Тут помойму любой сервак повесится, особенно если они ещё будут типа Parent-Children. И важно выбирать не только сервер но и ещё клиент. Так же не маловажно какой будет сервер (в смысле компьютер), на котором всё будет крутиться. Так что факторов очень много и наврят ли это всё решается в форумах. Я работаю с Microsoft Analysis Server 2000 и вроде нормально, хотя не уверен что 30 измерений в одном кубе летало бы за 10 секунд. Ведь и клиенты разные бывают. Например Excel закачивает все данные из куба, не важно, дойдешь ты до последней строчки в отчёте или нет. А OWC PivotTable закачивает порциями, при скроллинге. Ну в общем много факторов. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 06:41 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
2 Jurii Подготовка данных - это формирование определенного OLAP-куба на основе таблицы фактов, а не их "набивка". И вопрос для меня, таким образом, остается открытым... 2 Константин Лисянский: Спасибо за ссылку. Что касается конкретики по данной задаче, то см ниже... 2 GoodLeo: Здесь каждый будет "рекламировать" то с чем работал. Пусть рекламируют, я этого и добиваюсь. А по результатам рекламы я уже сам постараюсь провести сравнение :) Вот, например, Jurii прорекламировал, что системе Cognos совершенно безразлично к-во записей в таблице фактов: что 1000, что 250000. Я, конечно, понимаю, что речь идет не о сотнях миллионов записей, но все же как, вы верно заметили, чудес не бывает :) И действительно зачем 30 (!!!!) измерений??? Нужно :) Если бы мне нужно было не 30 измерений, а, скажем, 5, я бы здесь вопрос не задавал бы, а использовал, на таких-то объемах, любой, который подошел бы мне по прочим критериям (включая цену). И важно выбирать не только сервер но и ещё клиент. Согласен, но это уже тема другого вопроса :) Вопрос на самом деле стоит-то так: существует ли OLAP-сервер, который бы умел создавать любой OLAP-разрез "на лету"? Я не могу работать с заранее просчитанными данными, потому что это бессмысленно: кустомеры будут "дриллить" измерения и вращать куб, и мне неизвестно, как именно, так как основная задача: 1 - выявить взаимосвязь измерений (поэтому их так много - задача на стыке медицины и социологии, обрабатывать надо результаты тестов) 2 - выделить наиболее важные влияющие факторы, ответственные за взаимосвязь определенных групп измерений. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 12:37 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Константин: Теория и практика говорят о том, что у серверов MOLAP существуют определённые проблемы (sparsity и database explosion), которые не каждый производитель умеет решать одинаково хорошо. Вам приходилось на практике с этим сталкиваться? Я например знаю, что такая проблема есть у Oracle Express (и видимо есть у Oracle 9i OLAP) и Hyperion Essbase. OLAP-сервер MS AS по словам моего знакомого, работающего с большими БД, также имеет проблему лавинообразного роста размера куба. А вот Cognos сколько я ни тестировал - такой проблемы не встречал. На мой взгляд, 30 измерений - достаточно много для одного куба. Есть такая задача - анализ анкет. Например если в анкете 100 вопросов - то в кубе будет более 100 измерений... :) Возможно, и инструменты попроще типа Cognos ... подойдут Не забывайте, все гениальное - просто :) Попробуйте провести аналогичный моему тест на 30 измерениях в каждом из которых - 5 уровней иерархии, и Вы поймете, что Microstrategy - это все же не OLAP. To GoodLeo: 1.Здесь каждый будет "рекламировать" то с чем работал. 3. И действительно зачем 30 (!!!!) измерений??? Тут помойму любой сервак повесится, особенно если они ещё будут типа Parent-Children Советую не смотреть много рекламы, а использовать информацию, которая основана на реальном опыте. Хотя те, кто считает свои OLAP-продукты недостаточно сильными для решения этой задачи - просто не будут о них упоминать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 12:45 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Volj: Подготовка данных - это формирование определенного OLAP-куба на основе таблицы фактов, а не их "набивка". Ну теперь понятно. Это я называю генерацией или процессингом куба. Время необходимое для формирования куба зависит от кол-ва записей и от кол-ва категорий/листьев/членов. Я думаю для 250000 записей при 30 измерениях это будет несколько минут - но это нужно проверить экспериментально. Вот, например, Jurii прорекламировал, что системе Cognos совершенно безразлично к-во записей в таблице фактов: что 1000, что 250000. Я, конечно, понимаю, что речь идет не о сотнях миллионов записей, но все же как, вы верно заметили, чудес не бывает :) Я бы не сказал, что с моей стороны это была реклама - скорее я просто поделился опытом и высказал предположение. Я не спорю, чудес не бывает, но обработка 250000 записей - это не чудо, а вполне реальная задача. Мне приходилось закачивать в кубы десятки миллионов записей, в кубах было полтора десятка измерений. И я уверен, что если бы я сделал еще полтора десятка измерений - ничего бы не изменилось. Cognos PowerPlay умеет работать с пустотами в кубе, и соблюдает баланс между хранением в кубе агрегатов и формул, на основе которых производные показатели вычисляются налету. Мне просто не хочется тратить время на набивку 250000 записей. Поэтому я предлагаю Вам потестировать ознакомительную версию PowerPlay на уже имеющихся у Вас данных. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 13:02 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
OLAP куб изначально строится на известных исходных данных необходимых для его создания: - меры (количество, сумма и т.д.) - измерения (товары, клиенты, даты движения и т.д.). OLAP изначально предназначен для того что бы получать срезы по сочетаниям мер и измерений. Есс-но, если вы у какого - то измерения отключаете член или группу членов, то OLAP "на лету" пересчитывает данные". Но скорость это лёта зависит от многих факторов. Вращать и дрлить куб можно как угодно и сколько угодно на любой OLAP платформе. Другое дело что вам нужно выявить взаимосвязи и т.д. и т.п. Тогда возможно вам нужно использовать средства Data Minig, но про них я ничего сказать не могу. Сам серъёзно не использовал. Или придётся создавать вычисляемые меры, для выявления закономерностей, что не так то просто и безусловно требует "известности" задачи. Измерений можно делать и 30 и 100, но тогда они должны быть "ровными", что бы это реально работало. Полностью поддерживаю слова Юрия: Советую не смотреть много рекламы, а использовать информацию, которая основана на реальном опыте. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 13:09 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
2 GoodLeo & Jurii: Хотя те, кто считает свои OLAP-продукты недостаточно сильными для решения этой задачи - просто не будут о них упоминать. 2 Jurii: Да, конечно. Именно сужения списка продуктов для сравнения я и добиваюсь. Я думаю для 250000 записей при 30 измерениях это будет несколько минут - но это нужно проверить экспериментально. Ок, спасибо, проверим :) Для меня сейчас важно, минуты или месяца ;-) И я уверен, что если бы я сделал еще полтора десятка измерений - ничего бы не изменилось. Ну это вряд-ли :) Хотя бы линейный рост "тормозов" должен наблюдаться... Кстати, подскажите пропорционально чему замедляется работа при увеличении количества измерений: логарифмически, линейно, в квадрате или экспоненциально? разумеется, я не прошу точных формул :) Обработка 250000 записей - это не чудо, а вполне реальная задача Да, конечно. Чудо - это одинаковое время обработки 1000 записей и 250000. Как, впрочем, и Ваше предыдущее высказывание относительно прибавления полутора десятка измерений ;-) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 13:18 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
2 GoodLeo: Измерений можно делать и 30 и 100, но тогда они должны быть "ровными", что бы это реально работало. Поясните, plz. Что это за термин "ровные"? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 13:23 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
Грубо говоря - с известной структурой. Т.е. когда в момент дизайна вы чётко определяете сколько в нём будет уровней. Если же использовать измерение типа Parent-Children, когда глубина измерения зранее не известна, то будет ж.....а. :) В смысле она будет когда таких измерений много и членов в них много. На производительность MS AS влияют так же другие факторы но это уже детали. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 13:32 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Volj: Чудо - это одинаковое время обработки 1000 записей и 250000 Есть некоторое фиксированные время на "разгон" в процессе генерации куба (для 1000 и для 250000 оно одинаково). Далее записи читаются например со скоростью 10000 записей в секунду. Обычно этап чтения - самый длинный, но если например будет очень много категорий - то самым длинным будет формирование шапки куба... У Вас есть оценки, сколько элементов будет в каждом измерении? Кстати, подскажите пропорционально чему замедляется работа при увеличении количества измерений: логарифмически, линейно, в квадрате или экспоненциально? На мой взгляд можно говорить о линейном замедлении и только по той причине, что каждая запись будет содержать больше полей и процесс чтения будет дольше. Но я не могу сказать, что куб PowerPlay с 30 измерениями будет генериться в 15 раз дольше, чем куб с 2 измерениями. Как то давно я создавал тестовый куб с 50 измерениями для одной из структур МПС Белоруссии, и если бы число измерений влияло бы на скорость генерации куба существенно - я бы это заметил. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 13:42 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
В MS AS процессинг состоит из двух условных этапов: 1. Закачка записей в партиции. Если куб ROLAP - то время на данную операцию практически не затрачивается. В противном случае - рост временных затрат линеен по отношению к количеству записей в таблице фактов. Ну это очевидно. 2. Расчёт агрегаций. Тут не так всё просто. Вид зависимости оценить сложно, так как MS AS "по умному" рассчитывает агрегации. Хотя наверное если задать 0% агрегаций, то наверное зависимость тоже будет линейная :). Более точно - надо читать теорию, а мне лень :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 14:01 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
2 Jurii Вам приходилось на практике с этим сталкиваться? Я например знаю, что такая проблема есть у Oracle Express (и видимо есть у Oracle 9i OLAP) и Hyperion Essbase. OLAP-сервер MS AS по словам моего знакомого, работающего с большими БД, также имеет проблему лавинообразного роста размера куба. А вот Cognos сколько я ни тестировал - такой проблемы не встречал Приходилось. Как раз с Cognos. Только было немного по-другому. Кубы были довольно небольшими (150 МБайт), но вот, быстродейтсвие при этом было кастратофически низким. Причём попытки его поднять в виде партишионинга и других приёмов оказались не очень успешными. Пришлось от него отказываться. Есть такая задача - анализ анкет. Например если в анкете 100 вопросов - то в кубе будет более 100 измерений... :) Одноуровневые иерархии ответов с очень небольшим количеством листовых элементов. Совсем не впечатляет :). Это и на Excel можно анализировать. Не забывайте, все гениальное - просто :) Попробуйте провести аналогичный моему тест на 30 измерениях в каждом из которых - 5 уровней иерархии, и Вы поймете, что Microstrategy - это все же не OLAP Намекаете на то, что я ошибся форумом? То, что это не OLAP расскажите аналитикам olapreport.com, gartner и прочим авторитетам, на которых Вы любите ссылаться в своих постингах, восхваляющих Cognos. Прошу при этом заметить, что я не рекламирую здесь Microstrategy, а лишь делаю попытки объяснить, что этот продукт имеет много положительных сторон и его тоже стоит рассматривать. Желаю успехов. С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 14:32 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Константин: Кубы были довольно небольшими (150 МБайт), но вот, быстродейтсвие при этом было кастратофически низким. Причём попытки его поднять в виде партишионинга и других приёмов оказались не очень успешными. Как Вы говорили насчет ХД - "Проектировать надо правильно"? ;) Это и для кубов актуально... В таких случаях надо обращаться за помощью к экспертам по Cognos через сайт http://cognos.narod.ru Пришлось от него отказываться. Как я понимаю, это произошло на Вашем текущем месте работы? Если да - то компания Cognos не приобрела ценного партнера. К счастью, свято место пусто не бывает, и при моем активном участии у Cognos появляются новые партнеры как в Москве, так и в регионах :) Одноуровневые иерархии ответов с очень небольшим количеством листовых элементов. Совсем не впечатляет :). Это и на Excel можно анализировать В Excel можно это анализировать, если объем данных небольшой. Намекаете на то, что я ошибся форумом? То, что это не OLAP расскажите аналитикам olapreport.com, gartner Да нет, не намекаю - просто знаю, что там где нет кубов - нет гарантии быстрого отклика на запрос пользователя. В то же время Microstrategy относится к классу Business Intelligence. Задам ка я пожалуй этот вопрос Вашему коллеге, который будет выступать на этом мероприятии: http://www.osp.ru/BI Заодно после просмотра 3-й части Матрицы - Революция, послушаю про Революцию в отчетности (доклад ЮРИЯ Ротманова, представителя Cognos :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 15:12 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Jurii: Есть некоторое фиксированные время на "разгон" в процессе генерации куба? Чем в это время Cognos занимается? Считает аггрерации, обрабатывает элементы измерений или еще чего-то? И что это вообще за время, как его оценить? Спасибо за развернутый ответ про измерения. Размер куба примерно 10E+50. To GoodLeo (да и вообще всем): MS AS "по умному" рассчитывает агрегации. Поясните, если есть возможность... Последовательно, от меньшего уровня аггрегирования к большему, или в произвольный момент считает произвольный аггрегат, без обязательного наличия аггрегатов более низкого уровня? На этот вопрос, по-моему, может дать ответ не теория, а только чистая практика :) To Константин Лисянский: Кубы были довольно небольшими (150 МБайт) Имеется в виду размер базы, на основании которой рассчитывается куб, или размер куба с просчитанными аггрегатами? Одноуровневые иерархии ответов с очень небольшим количеством листовых элементов. Это и на Excel можно анализировать. На Excel нельзя. Не передергивайте :) To Jurii снова: А как, вообще, Cognos переваривает обратную моей ситуацию: сотни миллионов записей в табл фактов и относительно небольшой (5-7 измерений) куб? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 15:29 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Volj: Есть некоторое фиксированные время на "разгон" в процессе генерации куба? Чем в это время Cognos занимается? Cognos ждет, пока выполнится запрос на реляционном сервере и начнется фетч на OLAP-сервер во временный файл. Если источники данных в модели куба - это несложные запросы к реляционным БД и плоские локальные файлы - то это время составляет несколько мгновений или секунд. Но если есть сложный запрос(ы) - то этот нулевой этап может длиться долго. Размер куба примерно 10E+50 Правильно ли я понимаю, что это означает, что например в 20 измерениях у Вас по 100 элементов, а еще в 10 измерениях - по 10 элементов? (100^20*10^10 = 10^50) Имеется в виду размер базы, на основании которой рассчитывается куб, или размер куба с просчитанными аггрегатами? Константин имел в виду размер куба с просчитанными агрегатами. А как, вообще, Cognos переваривает обратную моей ситуацию: сотни миллионов записей в табл фактов и относительно небольшой (5-7 измерений) куб? Приведу пример: В кубе по анализу продаж 10 измерений и 12 показателей. Закачиваются данные порциями по 5-6 миллионов записей - каждая порция - по 25 минут. Всего около 90 миллионов записей. Размер куба со всеми агрегатами - около гигабайта. Отчеты в любых разрезах на компьютерах Pentium-2 256 Mb оперативки - летают, по 10 секунд ждать не приходится. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 16:16 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
2 Volj А почему кстати вам не подходит ROLAP решение типа Business Objects или Oracle Discoverer? Там нет никаких ограничений на количество измерений, так как они все виртуальны, а 250000 записей это небольшой объем. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 17:21 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
То Birkhoff: А почему кстати вам не подходит ROLAP решение типа Business Objects или Oracle Discoverer? Может, и подходит, я же не знаю :) У Вас былда практика использования этих продуктов для решения задач, похожих на мою (см. мои сообщения выше)? Там нет никаких ограничений на количество измерений, так как они все виртуальны... Это как понять? Пишите процедуру аггрегации, и все будет ок? Или я чего-то не понимаю? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 17:31 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Jurii: Правильно ли я понимаю, что это означает, что например в 20 измерениях у Вас по 100 элементов, а еще в 10 измерениях - по 10 элементов? (100^20*10^10 = 10^50) Примерно так, только разброс несколько больше... Закачиваются данные порциями по 5-6 миллионов записей - каждая порция - по 25 минут. Размер куба со всеми агрегатами - около гигабайта. А время аггрегирования какое? Или аггрегирование было учтено в "25 минут"? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 17:38 |
|
||
|
30 измерений в таблице фактов
|
|||
|---|---|---|---|
|
#18+
To Volj: А время аггрегирования какое? Или аггрегирование было учтено в "25 минут"? Да, каждые 5-6 миллионов записей подкачивались за 25 минут (включая чтение и агрегирование). А почему кстати вам не подходит ROLAP решение типа Business Objects или Oracle Discoverer? Может, и подходит, я же не знаю :) Как я понял, Ваши аналитики должны заниматься научным поиском, выискивать скрытые тенденции. Для этого нужен все же многомерный куб, а не генератор отчетов. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 26.11.2003, 17:51 |
|
||
|
|

start [/forum/topic.php?fid=49&msg=32335840&tid=1872978]: |
0ms |
get settings: |
5ms |
get forum list: |
10ms |
check forum access: |
2ms |
check topic access: |
2ms |
track hit: |
130ms |
get topic data: |
7ms |
get forum data: |
2ms |
get page messages: |
41ms |
get tp. blocked users: |
2ms |
| others: | 225ms |
| total: | 426ms |

| 0 / 0 |
