Этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
Политика конфиденциальности
|
|
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Прветствую, несколько вопрос по пводу постройки кубов. Имеется реально много записей -- порядка 50 миллионов в день. Имеется 8 процессорная машинка с 64гб памяти от Sun. Постройка кубов занимает порядка 12 часов. Иногда случается наползание нового процесса на незаконченный предыдущий. Вопросы: 1) Насколько верно утверждение, что Cognos более 4 процессоров не берет для обработки кубов? 2) Есть ли какие то приспособы от Cognos, которые позволяют проследить на очень детальном уровне чем собственно Transformer занят и где у него затык? То есть хотелось бы чот нибудь такое типа: Занят обработкой такого то запроса, Ушло столько то таких то и таких то ресурсов Обработано столько то и столько то записей со средней скоростью столько то аписей в секунду. итд итп. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 11:41 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Все в шоке! :D Не знаю, как в юниховой версии, а в Windows-трансформере отлично видно, чем он занимается. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 12:36 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Кроме того, в лог-файле, лежащем там же, где куб, все отлично журналировано. Вт 06 дек 2005 11:14:27 4 000D8FB7 Start cube update. Вт 06 дек 2005 11:14:27 4 000D8FB7 Initializing categories. Вт 06 дек 2005 11:14:27 4 000D8FB7 Timing, INITIALIZING CATEGORIES,00:00:00 Вт 06 дек 2005 11:14:27 4 000D8FB7 Start processing data source 'c:\work\...\bm.mdb'. Вт 06 дек 2005 11:14:27 4 000D8FB7 Reading source data. Вт 06 дек 2005 11:14:28 4 000D8FB7 Timing, OPEN DATA SOURCE,00:00:01 Вт 06 дек 2005 11:14:30 4 000D8FB7 End processing 3033 records from data source 'c:\work\...\bm.mdb'. Вт 06 дек 2005 11:14:30 4 000D8FB7 Timing, READ DATA SOURCE,00:00:03 Вт 06 дек 2005 11:14:30 4 000D8FB7 Marking categories used. Вт 06 дек 2005 11:14:30 4 000D8FB7 Timing, MARKING CATEGORIES USED,00:00:00 Вт 06 дек 2005 11:14:30 4 000D8FB7 Initializing categories. Вт 06 дек 2005 11:14:30 4 000D8FB7 Timing, INITIALIZING CATEGORIES,00:00:00 Вт 06 дек 2005 11:14:30 4 000D8FB7 Start processing data source 'c:\work\...\BM.mdb'. Вт 06 дек 2005 11:14:30 4 000D8FB7 Reading source data. Вт 06 дек 2005 11:14:31 4 000D8FB7 Timing, OPEN DATA SOURCE,00:00:01 Вт 06 дек 2005 11:15:01 4 000D8FB7 End processing 53776 records from data source 'c:\work\...\BM.mdb'. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 12:41 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Отличного крайне мало. Эти данные я вижу конечно и обрабатываю. Теперь посчитайте сколько у вас занимает процессинг одной записи (порядка пол-миллисекунды) и умножьте на 50 миллионов -- получите около 7 часов. Теперь надо знать что у вас там за записи итд итп. Меня интересует что происходит в: 1) монент считывания записи, что это занимает так много времени на запись 2) и как производятся расчеты после того как все это было считано. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 13:19 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
2 abur: Имеется реально много записей -- порядка 50 миллионов в день. Имеется 8 процессорная машинка с 64гб памяти от Sun. Постройка кубов занимает порядка 12 часов. А за какой период Вы закачиваете данные в OLAP-куб Cognos? Если за 1 день - то 50 миллионов записей на таком железе можно закачать за 1 час. Если за год - то мне даже сложно перемножить 50 миллионов на 365 :) При таких объемах данных у Вас наверняка нет исправлений задним числом, поэтому надо использовать инкрементальную подкачку, причем партиций в кубе должно быть не мало, но и не много, чтобы подкачка выполнялась быстро. Также стоит подумать о предварительных агрегациях данных на уровне РСУБД, чтобы уменьшить количество записей, закачиваемых в OLAP-куб. Я имею в виду не только агрегации с помощью средств РСУБД, но и использование функций агрегирования в модуле Impromptu/ReportNet. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 17:30 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Юрий, прошу не вводить людей в заблуждение! Impromptu с ReportNet не имеет ничего общего! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 17:41 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Имеется реально много записей -- порядка 50 миллионов в день. Имеется 8 процессорная машинка с 64гб памяти от Sun. Постройка кубов занимает порядка 12 часов. А за какой период Вы закачиваете данные в OLAP-куб Cognos? Если за 1 день - то 50 миллионов записей на таком железе можно закачать за 1 час. Если за год - то мне даже сложно перемножить 50 миллионов на 365 :) Не понял как определяется слово "закачать". Считать данные из базы данных и обработать или только считать данные. У нас считывание и обработка занимает до 12 часов. Кроме того, как я писал не совсем ясно умеет ли Когнос распаралеливать работу на больше чем 4 процессора. Сомневаюсь, что были сделаны ошибки которые замедляют процесс в 12 раз. Сомневаюсь обоснованно. Делали далеко не мышководы-любители. При таких объемах данных у Вас наверняка нет исправлений задним числом, Нет, нету. Данные записываются один раз в банк данных и больше не исправляются. поэтому надо использовать инкрементальную подкачку, причем партиций в кубе должно быть не мало, но и не много, чтобы подкачка выполнялась быстро. Я не очень понимаю что такое инкрементальная подкачка в этой связи. Каждый день строится куб на основе 50 миллионов записей, набежавших за этот день (сутки). На основе этого куба строятся недельные, двухнедельные и помесячные. Партиций итак не ахти и народ кричит давай еще и кричит крайне настойчиво. Также стоит подумать о предварительных агрегациях данных на уровне РСУБД, чтобы уменьшить количество записей, закачиваемых в OLAP-куб. Предварительная агрегация неовзможна по ряду причин, основная из которых та, что каждая запись сама по себе важна и некоторые запросы должны допускать уровень подробностей до записи включительно. По крайней мере при недельном кубе..Так что я не вижу как тут усреднять/уплотнять. Я имею в виду не только агрегации с помощью средств РСУБД, но и использование функций агрегирования в модуле Impromptu/ReportNet. Эту фразу ня не понял, можно в более разжеванном виде? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 18:33 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
2 Гликоген: Юрий, прошу не вводить людей в заблуждение! Impromptu с ReportNet не имеет ничего общего! Я рассматриваю ReportNet как новую версию Impromptu. Решают они одинаковые задачи, функциональность у них одинаковая, за исключением того что Impromptu силен в среде Windows, а ReportNet - в Web-среде (Impromptu Web Reports лично мне не очень нравится, хотя внедрен он по всему миру во множестве компаний, сейчас с IWR мигрируют на RN). 2 pustota1 (он же abur, как я понимаю :) : Не понял как определяется слово "закачать". Считать данные из базы данных и обработать или только считать данные. И считать, и обработать. У нас считывание и обработка занимает до 12 часов. Кроме того, как я писал не совсем ясно умеет ли Когнос распаралеливать работу на больше чем 4 процессора. Сомневаюсь, что были сделаны ошибки которые замедляют процесс в 12 раз. А если по отдельности? сколько у вас длится считывание? Может SQL-запросы, посылаемые на сервер РСУБД слишком сложные? По хорошему, ваш сервер должен считывать 100 тысяч записей в секунду за счет параллельного чтения, которое поддерживается в Transformer. Я не знаю насчет 8 процессоров. Посмотрите, сколько создается процессов при чтении данных - если 8 - то используются все 8 процессоров. А что касается ошибок - то это дело житейское, я уверен что 12 часов - это неоптимальный процессинг куба. Данные записываются один раз в банк данных и больше не исправляются Это радует. Я не очень понимаю что такое инкрементальная подкачка в этой связи. Каждый день строится куб на основе 50 миллионов записей, набежавших за этот день (сутки). На основе этого куба строятся недельные, двухнедельные и помесячные. Можно поподробнее насчет того как Вы создаете недельные кубы на основе кубов по каждому дню? Используете партицирование по оси времени? Предварительная агрегация неовзможна по ряду причин, основная из которых та, что каждая запись сама по себе важна и некоторые запросы должны допускать уровень подробностей до записи включительно. По крайней мере при недельном кубе..Так что я не вижу как тут усреднять/уплотнять. Как-то я делал кубик в котором было несколько сот миллионов записей с возможностью увидеть детализацию до каждой записи. Тут важно правильное проектирование... Какая у вас предметная область? Много клиентов, и по каждому много транзакций? Судя по объемам, вы либо крупный телеком, либо, что более вероятно - интернет-портал типа www.yandex.ru ... Я имею в виду не только агрегации с помощью средств РСУБД, но и использование функций агрегирования в модуле Impromptu/ReportNet. Эту фразу ня не понял, можно в более разжеванном виде? Ну например есть у нас 1 миллиард транзакций по 10 миллионам физ. лиц за 20 дней. Мы можем использовать функцию агрегирования Impromptu - Total, или Count, или Average/Min/Max, и т.д., указать контекст For ФизЛицо, День, и на выходе получим массив данных не более 200 миллионов записей - это то что вернет SQL-запрос, сгенерированный Impromptu, а результат этого запроса подается на вход в Transformer. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 19:17 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Jurii2 Гликоген: Юрий, прошу не вводить людей в заблуждение! Impromptu с ReportNet не имеет ничего общего! Я рассматриваю ReportNet как новую версию Impromptu. Решают они одинаковые задачи, функциональность у них одинаковая, за исключением того что Impromptu силен в среде Windows, а ReportNet - в Web-среде (Impromptu Web Reports лично мне не очень нравится, хотя внедрен он по всему миру во множестве компаний, сейчас с IWR мигрируют на RN). автор2 pustota1 (он же abur, как я понимаю :) : Да, это все обо мне ;-) Не понял как определяется слово "закачать". Считать данные из базы данных и обработать или только считать данные. И считать, и обработать. У нас считывание и обработка занимает до 12 часов. Кроме того, как я писал не совсем ясно умеет ли Когнос распаралеливать работу на больше чем 4 процессора. Сомневаюсь, что были сделаны ошибки которые замедляют процесс в 12 раз. авторПосмотрите, сколько создается процессов при чтении данных - если 8 - то используются все 8 процессоров. Вы уверены что зависимость жесткая? То есть нету 8 процессов нету использования 8 процессоров. И Transformer может использовать любое количество процессоров. Вопрос не праздный, потому как если это так, то будем посмотреть что делать дальше с Cognos support. авторА что касается ошибок - то это дело житейское, я уверен что 12 часов - это неоптимальный процессинг куба. Согласен, что ошибки дело житейское. Согласен что очень может быть, что мы имеем дело с неоптимальным процессингом куба. Вопрос: Можно ли это как то промерить и увидить где узкое место? Профайлинг такой совершить по процессу построения куба. Данные записываются один раз в банк данных и больше не исправляются Это радует. Я не очень понимаю что такое инкрементальная подкачка в этой связи. Каждый день строится куб на основе 50 миллионов записей, набежавших за этот день (сутки). На основе этого куба строятся недельные, двухнедельные и помесячные. авторМожно поподробнее насчет того как Вы создаете недельные кубы на основе кубов по каждому дню? Используете партицирование по оси времени? Покамест нельзя, поскольку я сам начал разбираться. Не буду чепуху городить. Что конретно имеется ввиду под партиционированием по оси времени? Предварительная агрегация неовзможна по ряду причин, основная из которых та, что каждая запись сама по себе важна и некоторые запросы должны допускать уровень подробностей до записи включительно. По крайней мере при недельном кубе..Так что я не вижу как тут усреднять/уплотнять. авторКак-то я делал кубик в котором было несколько сот миллионов записей с возможностью увидеть детализацию до каждой записи. Тут важно правильное проектирование... Какая у вас предметная область? Много клиентов, и по каждому много транзакций? Судя по объемам, вы либо крупный телеком, либо, что более вероятно - интернет-портал типа www.yandex.ru ... Более вероятно второе, а на самом деле первое ;-). Да, крупный телеком. Да, много клиентов и у кажодого много транзакций. Транзакции в связи с этим решением носят однако не финансовый характер, а скорее имеется ввиду определенный обмен сообщениями в разных протоколах. Я имею в виду не только агрегации с помощью средств РСУБД, но и использование функций агрегирования в модуле Impromptu/ReportNet. Эту фразу ня не понял, можно в более разжеванном виде? автор Ну например есть у нас 1 миллиард транзакций по 10 миллионам физ. лиц за 20 дней. Мы можем использовать функцию агрегирования Impromptu - Total, или Count, или Average/Min/Max, и т.д., указать контекст For ФизЛицо, День, и на выходе получим массив данных не более 200 миллионов записей - это то что вернет SQL-запрос, сгенерированный Impromptu, а результат этого запроса подается на вход в Transformer. Транзакции не однотипные. Представьте себе что у вас есть 10 миллионов клеинтов за 20 дней, 1 миллиард транзакций, но у транзакций есть скажем 10 разных видов плюс не все 10 миллионов клиентов одинаковы, а скажем соотнесены к 4 разным классам. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 20:43 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
2 abur: Вы уверены что зависимость жесткая? То есть нету 8 процессов нету использования 8 процессоров. И Transformer может использовать любое количество процессоров. Вопрос не праздный, потому как если это так, то будем посмотреть что делать дальше с Cognos support. Сколько процессов у Вас запускается реально? 4? Я не могу утверждать насчет 8 процессоров, но я никогда не слышал, чтобы у Transformer было подобное ограничение на число параллельных процессов. И хочется понять, является ли у вас процесс чтения узким местом? Можете ли Вы мне прислать по почте Ваш 12-часовой лог-файл? Согласен что очень может быть, что мы имеем дело с неоптимальным процессингом куба. Вопрос: Можно ли это как то промерить и увидить где узкое место? Для начала надо посмотреть лог-файл. Потом посмотреть, какие процессы занимают больше всего времени (открытие источника, чтение, построение куба)? И дальше нужно копать глубже. Покамест нельзя, поскольку я сам начал разбираться. Не буду чепуху городить. Что конретно имеется ввиду под партиционированием по оси времени? Если у нас есть 2 куба, то просто так их в 1 куб не объеденишь... Партицирование по оси времени - это создание физического куба для каждого периода времени (года, дня, недели, месяца, квартала, как душе угодно) и объединение всего этого в виртуальный куб. Это стандартная функциональность модуля Transformer. Более вероятно второе, а на самом деле первое ;-). Да, крупный телеком. Если не секрет - российский телеком или зарубежный? Если российский - Вам грех не воспользоваться акцией тест-драйва за 2 часа, чтобы сократить время создания куба с 12 до 2 часов :) Транзакции не однотипные. Представьте себе что у вас есть 10 миллионов клеинтов за 20 дней, 1 миллиард транзакций, но у транзакций есть скажем 10 разных видов плюс не все 10 миллионов клиентов одинаковы, а скажем соотнесены к 4 разным классам. Я думаю что в кубе не обязательно иметь детализацию до каждого клиента (хотя мне приходилось моделировать куб, в котором содержались данные по примерно 250 миллионам физических лиц). Что Вам мешает, обрабатывая каждую реляционную запись закачивать в куб не все записи из таблицы фактов? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 21:32 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Jurii2 abur: Вы уверены что зависимость жесткая? То есть нету 8 процессов нету использования 8 процессоров. И Transformer может использовать любое количество процессоров. Вопрос не праздный, потому как если это так, то будем посмотреть что делать дальше с Cognos support. [quot автор] Сколько процессов у Вас запускается реально? 4? Я не могу утверждать насчет 8 процессоров, но я никогда не слышал, чтобы у Transformer было подобное ограничение на число параллельных процессов. И хочется понять, является ли у вас процесс чтения узким местом? Можете ли Вы мне прислать по почте Ваш 12-часовой лог-файл? Сегодня ночью и посмотрим. ;-). Неанонимизированный конечно нет, если же говорить об анонимизированном то, скорее всего тоже нет, но поскольку я не знаю что конкретно нужно, то и говорю что скорее всего. Какие данные Вам нужны конкретно для оценки ситуации. Еще раз повоторюсь, что скорее всего нет. Дело не в моей скрытности, дело в сушествующих обязательствах и правилах. Согласен что очень может быть, что мы имеем дело с неоптимальным процессингом куба. Вопрос: Можно ли это как то промерить и увидить где узкое место? Для начала надо посмотреть лог-файл. Потом посмотреть, какие процессы занимают больше всего времени (открытие источника, чтение, построение куба)? И дальше нужно копать глубже. Рискну предположить, что это посторение куба. Чтение и открытие источника все таки стандартные операции, если железо используется правильно (это я проверю) не думаю что тут должны быть проблемы. Предоставляет ли Cognos штатные средства для копания глбуже в эту сторону и если да, то какие. Покамест нельзя, поскольку я сам начал разбираться. Не буду чепуху городить. Что конретно имеется ввиду под партиционированием по оси времени? Если у нас есть 2 куба, то просто так их в 1 куб не объеденишь... Партицирование по оси времени - это создание физического куба для каждого периода времени (года, дня, недели, месяца, квартала, как душе угодно) и объединение всего этого в виртуальный куб. Это стандартная функциональность модуля Transformer. Более вероятно второе, а на самом деле первое ;-). Да, крупный телеком. автор Если не секрет - российский телеком или зарубежный? Если российский - Вам грех не воспользоваться акцией тест-драйва за 2 часа, чтобы сократить время создания куба с 12 до 2 часов :). Не секрет. Зарубежный. Транзакции не однотипные. Представьте себе что у вас есть 10 миллионов клеинтов за 20 дней, 1 миллиард транзакций, но у транзакций есть скажем 10 разных видов плюс не все 10 миллионов клиентов одинаковы, а скажем соотнесены к 4 разным классам. Я думаю что в кубе не обязательно иметь детализацию до каждого клиента (хотя мне приходилось моделировать куб, в котором содержались данные по примерно 250 миллионам физических лиц). автор Что Вам мешает, обрабатывая каждую реляционную запись закачивать в куб не все записи из таблицы фактов? Мешают три вещи: 1) Законодательство 2) Заключенные S(ervice)L(evel)A(greements) с абонентами/другими операторами 1) Существующие стандарты относительно снимаемых с сети KPI. Больше помех нету ;-). ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 22:19 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Позволю себе высказать предположение что для данной задачи у Вас железо слабовато. Н.р. МТС для аналогичной работы использует SAN сервер с 12-ю двухядерными процессорами т.е их на самом деле - 24. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.12.2005, 10:01 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Просто в качестве варианта. Обратитесь в Cognos, возьмите 8ку и попробуйте в Analysis Studio. Там распараллеливание на уровне tomcat, это работать должно. Заодно получите незадокументированную возможность с этого tomcat'a снимать логи. Правда, чтоб они были очень информативные :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.12.2005, 10:30 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Analysis Studio в 8-ке - инструмент типа PowerPlay, для анализа. Загрузку данных в куб по-прежнему делает Transformer :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.12.2005, 12:40 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Сергей.Позволю себе высказать предположение что для данной задачи у Вас железо слабовато. Н.р. МТС для аналогичной работы использует SAN сервер с 12-ю двухядерными процессорами т.е их на самом деле - 24. Да я даже смелее скажу, конечно, тут 4 процессора лучше чем 2 и 8 лучше чем 4 итд. И не так чтобы уж очень денег было жалко. Однако перед тем как идти что то покупать надо понять что нам собственно надо и почему именно оно. Что будем делать если 24 процессорная машинка со скрипом будет тянуть? 48 процессорную покупать? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.12.2005, 15:17 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Свежая тенденция - вместо OLAP сделать хорошо партиционированное и индексированное реляционное хранилище, на ферме из дешевых одинаковых серверочков, расширяя ее по мере надобности. Типа Grid. И современный отчетный сервер должен с этим хорошо работать. Тогда узкое место сместится с процессинга куба на ETL, где прозрачность выше. :) На практике я таких конфигураций в России не видел и не слышал. Кстати, куб у вас в файловом виде хранится или в таблицах SQL? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.12.2005, 17:29 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Поддерживаю. Вместо фермы предлагаю использовать MPP-систему. Решение, опробованное уже на протяжении десятков лет :) С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.12.2005, 18:12 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Гликоген Кстати, куб у вас в файловом виде хранится или в таблицах SQL? В файловом ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.12.2005, 18:23 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
2 abur: Какие данные Вам нужны конкретно для оценки ситуации Пришлите мне для начала 3 цифры - сколько времени уходит на открытие источника данных (когда РСУБД выполняет SQL-запрос), сколько времени читаются данные, и сколько времени после этого создается куб. Рискну предположить, что это посторение куба. Чтение и открытие источника все таки стандартные операции, если железо используется правильно (это я проверю) не думаю что тут должны быть проблемы. Железо тут ни при чем, так как если запрос сложный, или данные читаются из сложной вьюшки, то открытие источника и чтение будут длиться долго. Я думаю что при правильном проектировании аналитической модели Cognos мне бы удалось и на 2-х процессорном сервере сгенерировать кубик из 50 миллионов записей значительно быстрее чем за 12 часов. Очень рекомендую не предполагать, а конкретно проверить. Если действительно окажется, что долго генерируется сам куб, то тогда обсудим как сократить в несколько раз время его генерации. Предоставляет ли Cognos штатные средства для копания глбуже в эту сторону и если да, то какие. Чтобы копать глубже, надо анализировать лог-файл, следить за параметрами сервера через Task Manager и обладать опытом в области Cognos. Не секрет. Зарубежный. А в какой стране находится Ваш офис, если не секрет? Мешают три вещи: 1) Законодательство 2) Заключенные S(ervice)L(evel)A(greements) с абонентами/другими операторами 3) Существующие стандарты относительно снимаемых с сети KPI. Я думаю что эти вещи Вам никак не могут мешать закачивать в кубы Transformer заранее предагрегированные данные. Законодательство (как и 2 других фактора) лишь обязывает Вас иметь все детальные записи в РСУБД/ХД, но при этом не запрещает решать аналитические задачи. 2 Сергей: Позволю себе высказать предположение что для данной задачи у Вас железо слабовато. Н.р. МТС для аналогичной работы использует SAN сервер с 12-ю двухядерными процессорами т.е их на самом деле - 24. В МТС, насколько я знаю, Cognos OLAP/BI пока не используется и недостаток мощности OLAP-системы они компенсируют серьезным железом. 2 Гликоген: Свежая тенденция - вместо OLAP сделать хорошо партиционированное и индексированное реляционное хранилище, на ферме из дешевых одинаковых серверочков, расширяя ее по мере надобности. Типа Grid. И современный отчетный сервер должен с этим хорошо работать. Тогда узкое место сместится с процессинга куба на ETL, где прозрачность выше. :) Вроде как свежие тенденции - это выход систем типа Cognos 8, где одновременно поддерживаются и реляционный, и многомерный подходы (когда глядя на отчет нельзя понять, что в нем вычисляется на основе прямых SQL-запросов, а что на запросах к MOLAP-кубу). Если не использовать MOLAP - то можно разработать ряд стандартных отчетов, оптимизировать скорость их генерации, но об аналитике нужно будет забыть. 2 Константин Лисянский: Поддерживаю. Вместо фермы предлагаю использовать MPP-систему. Решение, опробованное уже на протяжении десятков лет :) А как же научно-технический прогресс? :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.12.2005, 19:23 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
Jurii2 abur: [quot автор] Пришлите мне для начала 3 цифры - сколько времени уходит на открытие источника данных (когда РСУБД выполняет SQL-запрос), сколько времени читаются данные, и сколько времени после этого создается куб. Понял. Подумаю. Рискну предположить, что это посторение куба. Чтение и открытие источника все таки стандартные операции, если железо используется правильно (это я проверю) не думаю что тут должны быть проблемы. автор Железо тут ни при чем, так как если запрос сложный, или данные читаются из сложной вьюшки, то открытие источника и чтение будут длиться долго. Я думаю что при правильном проектировании аналитической модели Cognos мне бы удалось и на 2-х процессорном сервере сгенерировать кубик из 50 миллионов записей значительно быстрее чем за 12 часов. Очень рекомендую не предполагать, а конкретно проверить. Спасибо. Будем проверять. Предоставляет ли Cognos штатные средства для копания глбуже в эту сторону и если да, то какие. Чтобы копать глубже, надо анализировать лог-файл, следить за параметрами сервера через Task Manager и обладать опытом в области Cognos. Не секрет. Зарубежный. авторА в какой стране находится Ваш офис, если не секрет? В одной из стран Европейского Союза. Мешают три вещи: 1) Законодательство 2) Заключенные S(ervice)L(evel)A(greements) с абонентами/другими операторами 3) Существующие стандарты относительно снимаемых с сети KPI. автор Я думаю что эти вещи Вам никак не могут мешать закачивать в кубы Transformer заранее предагрегированные данные. Законодательство (как и 2 других фактора) лишь обязывает Вас иметь все детальные записи в РСУБД/ХД, но при этом не запрещает решать аналитические задачи. Не совсем верно. Часть данных используется для дискуссий с другими операторами где SLA, например, регулярно обсуждаются. KPI используется для дискуссий с теми же операторами и для дискуссий с абонентами и поставщиками. Это не совсем то законадательство, которое вы, наверное, думаете (уголовное итд.) Речь идет о так называемой добросовестности при принятии решений в случае акционерного общества и добросовестной конкуренции. На основе этих 3 факторов и конкретных способов использования и было решено предоставлять drill down до записи включительно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.12.2005, 00:18 |
|
||
|
анализ i и улучшение производительности Cognos Transformerа
|
|||
|---|---|---|---|
|
#18+
2 abur: По поводу распараллеливания -- это в тех поддержку, должно работать. Посмотрите настройки файловой системы, например журналирование нужно отключить. Да и в ZFS много всего можно донастроить... Посмотрите IQD-запрос, все вычисления, join'ы и пр нужно выкинуть на базу. Далее, в настройках Partitioning посмотрите текущую схему партиций. Потом включите -- Min gener. time, перестройте и сравните время генерации, тогда будет чуть понятней, где задержка. Да и получившаяся схема партиций будет интересной. Потом вручную можно играть с разбиениями. В dimension map не должно быть alternate roll-ups, вручную добавленых уровней, вычислимых уровней и пр. Вычисления мер, если нельзя сделать в БД, нужно постараться сделать хотя бы after-rollup. Ну и fine-tuning -- попробуйте различные сортировки таблицы в базе. Так можно косвенным образом повлиять на нормализацию ячеек в партициях куба, да и "попасть" в алгоритм, использующийся в PP. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.12.2005, 01:48 |
|
||
|
|

start [/forum/topic.php?fid=49&msg=33425994&tid=1870765]: |
0ms |
get settings: |
8ms |
get forum list: |
11ms |
check forum access: |
3ms |
check topic access: |
3ms |
track hit: |
88ms |
get topic data: |
11ms |
get forum data: |
3ms |
get page messages: |
55ms |
get tp. blocked users: |
1ms |
| others: | 247ms |
| total: | 430ms |

| 0 / 0 |
