Этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
Политика конфиденциальности
|
|
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Уважаемые спецы! Подскажите пожалуйста, строил ли кто-нить из Вас Хранилище Данных на базе MS SQL - сервера? Насколько вообще правильно использовать MS SQL для построения DWH? Какие плюсы и минусы есть у него по сравнению с другими системами для построения DWH? В дальнейшем планируется использовать данные из хранилища в MS AS и в Экселе, или другом олап - клиенте. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 28.11.2005, 16:18 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
мало фич у него, и много ограничений, относящихся к DWH, если сравнивать MS 2000 с Oracle 9i. Если вопрос цены и железок не стоит - берите Oracle :) C другой стороны, если ваше "хранилище" - на пару десятков миллионов записей - то нечего огород городить, MS справится вполне. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 28.11.2005, 17:59 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Не, переход на Oracle в планы не входит:) Правда, объем данных еще не ясен, только начинаем думать о DW. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 28.11.2005, 18:02 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
_zxНе, переход на Oracle в планы не входит:) Правда, объем данных еще не ясен, только начинаем думать о DW. Оценка объёма данных в данном случае очень важна. Если будет гигабайт 10-20, то в принципе можно сделать неплохо, по опыту знаю. Если больше - лучше не надо. Слышал я и терабайтных хранилищах на MS SQL, но слабо верится. В общем считайте гигабайты. И учтите, что нормализация не всегда хороша, если речь идёт о хранилищах данных. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 28.11.2005, 18:38 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Могу сказать про реляционное хранилище: Для начала вполне неплохой выбор. Объёмы несколько гигабайт с несложной схемой и несложными запросами потянет. Плюс грамотная политика по агрегатам, индексам, partitioning - до 80-100 Гб вполне можно разогнать, потом проблемы будут практически не решаемые, по крайней мере на версии 2000 :( Из плюсов - DTS, этот форум :) Из явных минусов: никакой partitioning, вообще с DWH фичами труба, никакая масштабируемость во всех смыслах. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 28.11.2005, 20:43 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
MSTR_FanМогу сказать про реляционное хранилище: Для начала вполне неплохой выбор. Объёмы несколько гигабайт с несложной схемой и несложными запросами потянет. Плюс грамотная политика по агрегатам, индексам, partitioning - до 80-100 Гб вполне можно разогнать, потом проблемы будут практически не решаемые, по крайней мере на версии 2000 :( Из плюсов - DTS, этот форум :) Из явных минусов: никакой partitioning, вообще с DWH фичами труба, никакая масштабируемость во всех смыслах. Кстати о DTS. В 2005 версии я его пока не обнаружил. От него остался Import-Export Wizard. Может быть кто знает, куда он подевался? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 10:24 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Он теперь называется Inegration Services(SSIS). Ирина <BR> <BR>---------------------------------------------------- <BR>This posting is provided "AS IS" with no warranties, and confers no rights ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 10:43 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Уважаемые гуру, из всего вышесказанного я так понял, что у меня работать все будет очень плохо, даже если будет работать вообще? ( У меня MSAS2K. Объемы примерно следующие: Кол-во строк в одной самой большой таблице будет превышать 150 млн. записей. Общий объем всего хранилища будет примерно около 50 Гигов (это только данные без агрегатов и т.д.). Объемы с каждым днем растут :( Стоит задача построения отчетов с использованием ОЛАПа. Сейчас OLTP работает на MS AS 7.0 (2K). ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 12:54 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 dmitry_kz: из всего вышесказанного я так понял, что у меня работать все будет очень плохо. У меня MSAS2K. Объемы примерно следующие: Кол-во строк в одной самой большой таблице будет превышать 150 млн. записей. Стоит задача построения отчетов с использованием ОЛАПа. Я бы сказал, что вопрос не в том, какая СУБД используется для создания хранилища данных, а какое OLAP-средство работает поверх хранилища... Я могу легко сделать ХД на основе MS Access или файлов DBF, закачать туда миллиард записей, и все будет работать с 5-секундным откликом на каждый запрос пользователя. Просто чтобы это достичь, я буду использовать OLAP-сервер, который преобразует реляционные данные в формат MOLAP-куба. Так что 150 миллионов для MS SQL при правильном выборе OLAP-сервера - это небольшой объем. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 13:07 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 Jurii: Ага, понял... Тогда если для такой ситуации выбирают MS AS2K, то это приемлимо? Ведь он же преобразовывает реляционные данные в MOLAP... :) Т.е. если схема такая: OLTP (MS SQL 7.0/2K) -> Хранилище данных (MS SQL 2K) -> OLAP (MS AS2K) то она вполне способна жить, и даже очень хорошо жить... :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 13:22 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
dmitry_kz2 Jurii: Ага, понял... Тогда если для такой ситуации выбирают MS AS2K, то это приемлимо? Ведь он же преобразовывает реляционные данные в MOLAP... :) Т.е. если схема такая: OLTP (MS SQL 7.0/2K) -> Хранилище данных (MS SQL 2K) -> OLAP (MS AS2K) то она вполне способна жить, и даже очень хорошо жить... :) Вы абсолютно правы! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 13:35 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
JuriiЯ могу легко сделать ХД на основе MS Access или файлов DBF, закачать туда миллиард записей, и все будет работать с 5-секундным откликом на каждый запрос пользователя. Просто чтобы это достичь, я буду использовать OLAP-сервер, который преобразует реляционные данные в формат MOLAP-куба. Супер. Запрос - distinct count по таблице детального уровня с группировкой по 3-4 полям. Без ограничений. (Смотрим активность торговых точек по времени суток за всю историю, в деньгах и штуках) Размер таблицы - 1 млрд строк, для ровного счета :) Решение в студию! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 13:40 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 dmitry_kz: Ага, понял... Тогда если для такой ситуации выбирают MS AS2K, то это приемлимо? Т.е. если схема такая: OLTP (MS SQL 7.0/2K) -> Хранилище данных (MS SQL 2K) -> OLAP (MS AS2K) то она вполне способна жить, и даже очень хорошо жить... :) MS AS - это один из двух самых мощных в мире OLAP-серверов, поэтому Ваша схема приемлема. Есть конечно тонкости, которые могут всплыть, если Вы будете решать сложные аналитические задачи. Поэтому полезно заранее анализировать потребности пользователей, и только на основе этого выбирать OLAP-инструментарий. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 13:42 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 MSTR_Fan: Супер. Запрос - distinct count по таблице детального уровня с группировкой по 3-4 полям. Без ограничений. (Смотрим активность торговых точек по времени суток за всю историю, в деньгах и штуках) Размер таблицы - 1 млрд строк, для ровного счета :) Решение в студию! Если Вы представляете компанию S&T, которая недавно стала партнером Cognos, Вы должны знать, что такое Cognos PowerPlay. В MOLAP-куб PowerPlay можно закачать миллиард записей, и PowerPlay умеет считать Distinct Count и делать группировки. Задача по торговым точкам и часам суток - популярна и давно обкатана в PowerPlay. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 13:52 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Jurii Если Вы представляете компанию S&T, которая недавно стала партнером Cognos, Вы должны знать, что такое Cognos PowerPlay. Я не представляю здесь компанию S&T, хотя и хорошо к ней отношусь :) Jurii В MOLAP-куб PowerPlay можно закачать миллиард записей, и PowerPlay умеет считать Distinct Count и делать группировки. Задача по торговым точкам и часам суток - популярна и давно обкатана в PowerPlay. То есть Вы утверждаете что Cognos PowerPlay способен сделать full table scan таблицы любых размеров за 5 секунд, я правильно понял? И время закачивания мы считаем? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 14:07 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 MSTR_Fan: Я не представляю здесь компанию S&T, хотя и хорошо к ней отношусь :) То есть Вы не обижаетесь на S&T за то что она Вас предала и подружилась с Cognos? Если так - то Вы пока еще не фан МСТР :) То есть Вы утверждаете что Cognos PowerPlay способен сделать full table scan таблицы любых размеров за 5 секунд, я правильно понял? И время закачивания мы считаем? PowerPlay не делает full table scan, эта операция для MOLAP-куба не актуальна. Те данные, которых бывает много (записи CDR, строки чеков и т.п.), не корректируются задним числом, поэтому их можно подкачивать инкрементально, и за счет этого минимизируется время обновления MOLAP-куба. Обычно большие кубы обновляются по ночам, когда пользователи спят и никуда не торопятся, но можно их обновлять и по факту поступления свежих данных в ХД. В дневное время суток уже обеспечивается 5-секундный отклик, так как все показатели во всех разрезах заранее просчитаны. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 14:53 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Jurii То есть Вы не обижаетесь на S&T за то что она Вас предала и подружилась с Cognos? Если так - то Вы пока еще не фан МСТР :) "Держи друзей близко, а врагов - ещё ближе" :) Jurii PowerPlay не делает full table scan, эта операция для MOLAP-куба не актуальна. Те данные, которых бывает много (записи CDR, строки чеков и т.п.), не корректируются задним числом, поэтому их можно подкачивать инкрементально, и за счет этого минимизируется время обновления MOLAP-куба. Обычно большие кубы обновляются по ночам, когда пользователи спят и никуда не торопятся, но можно их обновлять и по факту поступления свежих данных в ХД. В дневное время суток уже обеспечивается 5-секундный отклик, так как все показатели во всех разрезах заранее просчитаны. Очень интересно, а как происходит initial load? Предположим пришло изменение задним числом. И ещё такой момент: инкремент может приходить нецелостным - пришел факт, а в справочнике записи нет. Как с этим? Может PP обеспечить целостность или это возлагается на источник? Спасибо за ответы. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 15:41 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 MSTR_fan: Очень интересно, а как происходит initial load? Первоначальная загрузка данных в MOLAP-куб конечно же требуется, и может занимать значительное время (для сотен миллионов записей может занять несколько часов). Но как мы понимаем, если строить серьезное реляционное ХД, то там есть аналогичные этапы - и полная загрузка, и обновление, и поднятие базы из бэкапа. Для одной знакомой мне крупной розничной сети требовалось чуть ли не 2 недели, чтобы поднять из бэкапа большую реляционную БД Oracle... Предположим пришло изменение задним числом. И ещё такой момент: инкремент может приходить нецелостным - пришел факт, а в справочнике записи нет. Как с этим? Может PP обеспечить целостность или это возлагается на источник? Конечно это экзотика, когда чек, пробитый месяц или год назад правится задним числом... Но если такое произойдет, то можно изменить соответствующие показатели в ячейках MOLAP-куба с помощью операции сторнирования. То же самое можно сказать про случай, если в исходных данных была запись с неправильным кодом товара или просто с непроставленным кодом - сторнирование и возможность в PowerPlay делать запись данных в произвольные ячейки куба, а также создавать новые ячейки в кубе без полного перепроцессинга куба, решают эти проблемы. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 16:23 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
JuriiКонечно это экзотика, когда чек, пробитый месяц или год назад правится задним числом... Но если такое произойдет, то можно изменить соответствующие показатели в ячейках MOLAP-куба с помощью операции сторнирования. То же самое можно сказать про случай, если в исходных данных была запись с неправильным кодом товара или просто с непроставленным кодом - сторнирование и возможность в PowerPlay делать запись данных в произвольные ячейки куба, а также создавать новые ячейки в кубе без полного перепроцессинга куба, решают эти проблемы. Спасибо, как происходит сторнирование (корректирующая запись) по изменившемуся чеку понятно. Но вот задача с distinct count: data quality assurance tool дал нам знать что определенная порция документов не валидна - нужно их удалить. Если предположить что для проведения инкрементальной подгрузки distinct count агрегата Cognos хранит все distinct значения отдельно, где-то в кубе, то как он определяет какие из distinct значений нужно корректировать? И ещё вопрос: какой интерфейс дает Cognos для сторнирования? API? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 17:32 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Виктор СаковичИ учтите, что нормализация не всегда хороша, если речь идёт о хранилищах данных Виктор, я всю жизнь думал, что хранилище денных должно быть нормализованным для обеспечения той самой единственной версии правды, о которой упомянул Моша. Интересно, ради чего, по-твоему, нужно в хранилищах жертвовать нормализацией? Уж не ради производительности же? JuriiЯ бы сказал, что вопрос не в том, какая СУБД используется для создания хранилища данных, а какое OLAP-средство работает поверх хранилища... Я могу легко сделать ХД на основе MS Access или файлов DBF, закачать туда миллиард записей, и все будет работать с 5-секундным откликом на каждый запрос пользователя. Юрий, это для бедных. Есть задачи, которые не решаются средствами ОЛАП, а требуют реляционного хранилища. Вам это должно быть известно. 2 _zx: Присоединяюсь к вышесказанному - SQL Server ещё не готов как платформа для построения хранилищ данных. Недостаточно соответствующих фич. Существуют СУБД, способные работать на порядок быстрее на тех же вычислительных мощностях. С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 17:58 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Константин Лисянский Виктор СаковичИ учтите, что нормализация не всегда хороша, если речь идёт о хранилищах данных Виктор, я всю жизнь думал, что хранилище денных должно быть нормализованным для обеспечения той самой единственной версии правды, о которой упомянул Моша. Интересно, ради чего, по-твоему, нужно в хранилищах жертвовать нормализацией? Уж не ради производительности же? JuriiЯ бы сказал, что вопрос не в том, какая СУБД используется для создания хранилища данных, а какое OLAP-средство работает поверх хранилища... Я могу легко сделать ХД на основе MS Access или файлов DBF, закачать туда миллиард записей, и все будет работать с 5-секундным откликом на каждый запрос пользователя. Юрий, это для бедных. Есть задачи, которые не решаются средствами ОЛАП, а требуют реляционного хранилища. Вам это должно быть известно. 2 _zx: Присоединяюсь к вышесказанному - SQL Server ещё не готов как платформа для построения хранилищ данных. Недостаточно соответствующих фич. Существуют СУБД, способные работать на порядок быстрее на тех же вычислительных мощностях. С уважением, Константин Лисянский http://lissianski.narod.ru А что за СУБД Вы имеете в виду? Кроме Oracle 9i. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:09 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Например, СУБД Teradata. С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:10 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
судя по этой статье: http://www.citforum.ru/database/kbd98/glava5.shtml к Teradata Вы имеете непосредственное отношение, наверное внедряете:) что не может не влиять на Вашу объективность:) в нете как-то не густо информации об этой СУБД, у Вас нет ссылки на ее поставщика? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:24 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Костя, я с тобой спорить не хочу (но если ты настаиваешь, то проблем никаких нет, я готов в деталях, так сказать :-)). НИКТО ЕЩЕ НЕ СДЕЛАЛ СУБД, которорая работает на платформе Microsoft быстрее, чем MS SQL. Я не понимаю, о чем тут сыр-бор завелся. Зачем создавать проблему из ничего? Я навскидку могу назвать пять компаний в Москве, у которых обычный Navision Attain с его совершенно тупой схемой данных (кто сталкивался, тот знает) дорос до 200 гигабайт. И ничего, живет себе и не пыхтит, притом что вся обработка в Attain фактически производится на клиенте. А вы разводите философию "будет хранилище работать, не будет хранилище работать". Главное - свое хранилище спроектируйте с умом, и тогда distinct count даст вам гарантированный ответ за те же 5 секунд. Просто придется потратить на железо на 2000$, а чуть поболее. А потом вам Юрий правильно сказал - купите хорошего клиента и радуйтесь удовольствиям жизни. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:26 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Jurii Я могу легко сделать ХД на основе MS Access или файлов DBF, закачать туда миллиард записей Юра, Вы когда сказки рассказываете, то не забывайте сначала в шпаргалку по физическим ограничениям Access и DBF поглядеть... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:29 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
OldNovКостя, я с тобой спорить не хочу (но если ты настаиваешь, то проблем никаких нет, я готов в деталях, так сказать :-)). НИКТО ЕЩЕ НЕ СДЕЛАЛ СУБД, которорая работает на платформе Microsoft быстрее, чем MS SQL. Ошибаешься. Терадата работает и на этой платформе. Готов обсудить, почему она будет работать быстрее MS SQL на тот же порядок и на этой платформе. На самом деле, всё довольно просто - операционка нужна Терадате только чтобы стартовать саму СУБД. Остальными сервисами ОС Терадата практически не пользуется. Файловая система у неё своя, параллелизм делает тоже сама. Соответственно, зависимость от ОС минимальная. Можно говорить, что по производительности версия на Windows не отличается от версии на UNIX. Единственно, UNIX-версия понадёжнее и поудобнее в сопровождении (по понятным, надеюсь, причинам). Так что, поосторожнее :) Всё остальное, о чём ты сказал, наверное, правильно. Хотя, у меня опыт немного другой с SQL Server. Так что я стараюсь по возможности от него подальше держаться. _zxк Teradata Вы имеете непосредственное отношение, наверное внедряете:) что не может не влиять на Вашу объективность:) в нете как-то не густо информации об этой СУБД, у Вас нет ссылки на ее поставщика? Действительно, внедряю. Информация на сайте www.teradata.com С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:35 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Та-ак, ну началось... Константин хвалит намеками Терадату, Юрий такими же намеками Cоgnos, Неватает еще сэра Birkhoff с 10g для полного счастья. А что касается SQL, то 2000 это уровень Oracle 8. Поэтому упоминая 9i или 10g стоит все таки сравниваить с SQL2005 особенно на 64 битной платформе. Стоит так же взглянуть на tpc.org ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:41 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
backfireТа-ак, ну началось... Константин хвалит намеками Терадату, Юрий такими же намеками Cоgnos, Неватает еще сэра Birkhoff с 10g для полного счастья. А что касается SQL, то 2000 это уровень Oracle 8. Поэтому упоминая 9i или 10g стоит все таки сравниваить с SQL2005 особенно на 64 битной платформе. Стоит так же взглянуть на tpc.orgДа че мне говорить то. Вот посмотрите тут http://www.wintercorp.com/VLDB/2005_TopTen_Survey/TopTenWinners_2005.asp Самое большое хранилище на Oracle - 100 терабайт. MS там в списке нет. Какие еще вопросы? :) Странно, почему никто mySQL не рассматривает как платформу для хранилища? :-) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:45 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Хороший топик. Опять все те же на манеже. Как в добрые старые времена :-) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:46 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Константин Лисянский Действительно, внедряю. Информация на сайте www.teradata.com Не подскажите, сколько будет стоить внедрение Teradata? Чтоб я понял, стоит ли копать в этом направлении, или нет:) Ситуация: работаем на Navision Attain (мать его в дышло... слов нет...), в авральном режиме наделали кубов в MS AS (т.к. сразу поняли, что строить аналитические отчеты в Navision - это все равно что... даже не знаю с чем сравнить), которые берут данные из вьюшек на SQL-сервере, а вьюшки - непосредственно из Navision. Есть большое желание сделать все по-человечьи, т.е. построить DW, куда из гребанного Navision будут подливаться данные, и уж на основе DW строить систему аналитики. Вот. Объем базы Navision с 01/02 по сегод. день составляет 62 ГБ. Можете исходя из перечисленного прикинуть стоимость внедрения? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:47 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
BirkhoffСамое большое хранилище на Oracle - 100 терабайт. MS там в списке нет.А нет, извиняюсь - есть. 20ТБ. Значит можно 20 терабайтные хранилища строить. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:49 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
backfireКонстантин хвалит намеками Терадату Ну, можно раз в полгода-то просвещение населения устроить. Вон, человек заинтересовался. ОК. Могу не продолжать. С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:49 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2Birkhoff Справедливости ради - есть. Размер 19,467 TB. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:52 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Константин ЛисянскийОК. Могу не продолжать.Мне тоже интересно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:53 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
AAronСправедливости ради - есть. Размер 19,467 TB.Я уже исправился. Извините. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:54 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Не подскажите, сколько будет стоить внедрение Teradata? Смотря кто будет внедрять, и как внедрять. Лицензии не дороже Оракла будут. Для Вашего случая хватит двухпроцессорного сервера со сказёвым дисковым массивом о 20 дисках в качестве железки. С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 18:59 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Константин ЛисянскийНе подскажите, сколько будет стоить внедрение Teradata? Смотря кто будет внедрять, и как внедрять. Лицензии не дороже Оракла будут. Для Вашего случая хватит двухпроцессорного сервера со сказёвым дисковым массивом о 20 дисках в качестве железки.А вот кстати интересно, сколько конкретно будут стоить лицензии на 2х процессорный сервер. И нужно ли какое-то специальное железо в качестве сервера? Есть ли какой то прайс-лист? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 19:02 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Мне кажется, эти вопросы будет некорректно обсуждать на этом форуме. Я, к сожалению, не уполномочен на публичном форуме озвучивать цены. Примерный ориентир я дал. Для такой маленькой конфигурации специального железа не нужно. Интеловый двухпроцессорный сервер любого производителя, находящийся в HCL от Microsoft. С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 19:05 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Ну я о том в общем то, что например у Oracle или Microsoft есть официальные прайслисты которые находятся в открытом доступе. И по ним можно посчитать "цену по прайслисту". Понятно, что окончательная цена может быть ниже засчет того, что могут быть предложены скидки или выше засчет того, что понадобятся какие то другие компоненты или опции, которые сразу не рассматривались. Правильно ли я понял, что у NCR такого прайслиста нет и лицензии по каждому внедрению высчитываются персонально? А насчет некорректности обсуждения цены решения - мне кажется это неправильно. Цена решения - это очень важный фактор, влияющий на принятие решения. Так как, наверное на 2х процессорной машине хранилища можно построить сравнимой мощности с использованием софта любого вендора. Если посмотреть форум по Oracle - там чуть ли не каждый день возникают вопросы связанные с лицензированием и стоимостью софта. P.S. Прайс-лист Oracle, например, можно посмотреть тут. http://www.oracle.com/corporate/pricing/eplext.pdf ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 19:14 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Birkhoff backfireТа-ак, ну началось... Константин хвалит намеками Терадату, Юрий такими же намеками Cоgnos, Неватает еще сэра Birkhoff с 10g для полного счастья. А что касается SQL, то 2000 это уровень Oracle 8. Поэтому упоминая 9i или 10g стоит все таки сравниваить с SQL2005 особенно на 64 битной платформе. Стоит так же взглянуть на tpc.orgДа че мне говорить то. Вот посмотрите тут http://www.wintercorp.com/VLDB/2005_TopTen_Survey/TopTenWinners_2005.asp Самое большое хранилище на Oracle - 100 терабайт. MS там в списке нет. Какие еще вопросы? :) Странно, почему никто mySQL не рассматривает как платформу для хранилища? :-) Вопросы есть. Вы когда туда последний раз смотрели? Я краних результатах от 14 сентября на 8 месте в разделе DWH UPSS 19,467 SQL Server Windows Centralized/SMP Microsoft Unisys EMC а в разделе OLTP на 5 месте AIM Healthcare Services 8,026 SQL Server Windows Centralized/SMP Microsoft IBM EMC ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 19:17 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
backfire BirkhoffСамое большое хранилище на Oracle - 100 терабайт. MS там в списке нет. Какие еще вопросы? :) Вопросы есть. Вы когда туда последний раз смотрели? Я краних результатах от 14 сентября на 8 месте в разделе DWH UPSS 19,467 SQL Server Windows Centralized/SMP Microsoft Unisys EMC а в разделе OLTP на 5 месте AIM Healthcare Services 8,026 SQL Server Windows Centralized/SMP Microsoft IBM EMC http://www.sql.ru/forum/actualthread.aspx?tid=239391&pg=2#2122634 http://www.sql.ru/forum/actualthread.aspx?tid=239391&pg=2#2122657 ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 19:24 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
На самом деле там Терадаты нет :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 19:25 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
_zx Объем базы Navision с 01/02 по сегод. день составляет 62 ГБ. Можете исходя из перечисленного прикинуть стоимость внедрения? c 1 февраля текущего года или с января 2002 года? 62 Navision перейдут где нибудь в 30 нормально спроектированного DWH. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 19:28 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 MSTR_fan: Если предположить что для проведения инкрементальной подгрузки distinct count агрегата Cognos хранит все distinct значения отдельно, где-то в кубе, то как он определяет какие из distinct значений нужно корректировать? Про технические тонкости хранения агрегатов в кубе сказать сложно - это ноу-хау Cognos. Для того чтобы управлять тем, какие мемберы считать в Distinct count, а какие нет, используется параметр Activity measure (если поставить ВЫРУЧКУ, посчитаются только те товары, которые хоть раз продавались за указанный период, если поставить ОСТАТКИ - посчитаются те которые были на складе). Если какие-то товары считать не хочется - надо с помощью сторнирования обнулить показатель, используемый как Activity measure. И ещё вопрос: какой интерфейс дает Cognos для сторнирования? API? Можно например держать в кубе данные из Oracle, и подкачать сторнирующие записи из файла Excel. Можно сделать это визуальными средствами, а можно и программным путем (например на VB). 2 Константин Лисянский: Юрий, это для бедных. Есть задачи, которые не решаются средствами ОЛАП, а требуют реляционного хранилища. Вам это должно быть известно. Я не призываю все хранилища делать на простых СУБД типа MS Access или dBase, но если у Вас миллиарды записей - почему бы не хранить их в формате DBF? Это экономично, не придется переплачивать за enterprise-версии СУБД :) 2 OldNov: Главное - свое хранилище спроектируйте с умом, и тогда distinct count даст вам гарантированный ответ за те же 5 секунд. Просто придется потратить на железо на 2000$, а чуть поболее. Боюсь что мощное железо не даст гарантии быстрого выполнения SQL-запросов, когда речь идет об аналитических запросах, под каждый запрос таблицу с агрегатами не спроектируешь... Без MOLAP трудно обойтись, либо нужно смириться с невысокой скоростью отклика, измеряемой минутами или часами. А потом вам Юрий правильно сказал - купите хорошего клиента и радуйтесь удовольствиям жизни. Все-таки я имел в виду не просто клиента, а MOLAP-сервер поверх ХД плюс OLAP-клиент для него. 2 backfire: Я могу легко сделать ХД на основе MS Access или файлов DBF, закачать туда миллиард записей Юра, Вы когда сказки рассказываете, то не забывайте сначала в шпаргалку по физическим ограничениям Access и DBF поглядеть... Другими словами, Вы хотите сказать что я не смогу поместить 1 миллиард записей в ХД на основе MS Access или DBF? MS Access это мощное средство, аналог MS SQL сервер, его трогать не будем. Давайте на что-нибудь поспорим, что я без труда сделаю ХД на основе DBF-файлов, содержащее 1 миллиард записей, ОК? :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 21:39 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
_zx Не подскажите, сколько будет стоить внедрение Teradata? Есть большое желание сделать все по-человечьи, т.е. построить DW, куда из ... Navision будут подливаться данные, и уж на основе DW строить систему аналитики. Построение DW ради DW часто превращается в дорогую или не очень (в зависимости от бюджета) игрушку. Замахиваться на Hi End технологию имеет смысл, если есть желание зарабытавать с ее помощью деньги. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.11.2005, 22:07 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
JuriiЯ могу легко сделать ХД на основе MS Access или файлов DBF, закачать туда миллиард записей Юра, Вы когда сказки рассказываете, то не забывайте сначала в шпаргалку по физическим ограничениям Access и DBF поглядеть... Другими словами, Вы хотите сказать что я не смогу поместить 1 миллиард записей в ХД на основе MS Access или DBF? MS Access это мощное средство, аналог MS SQL сервер, его трогать не будем. Давайте на что-нибудь поспорим, что я без труда сделаю ХД на основе DBF-файлов, содержащее 1 миллиард записей, ОК? :) Юра у вас в школе что было по математике? Пример из арифметики 2-го класса начальной школы. максимальный размер базы в access 2 Gb, максимальный размер таблицы - не больше 2Gb, следовательно если вы запихнете в 1 (одну) таблицу 1 миллиард записей, то длинна записи должна быть не больше 2-х байт. Что вы сможете поместить в 2-х байтах? одну меру в 1(один) byte и еще 1(одно) измерение с макс количеством элементов 256? Вы еще скажите, что хранилище данных можно сделать на csv-файлах. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 00:53 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 backfire Теоретически - можно использовать партиции. Практически - извращение. Лучше расскажите, какие возможны проблемы MS AS (MOLAP-кубы) на больших объемах? Пусть месячный объем ~ 100 млн. фактов. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 01:00 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
AAron2 backfire Теоретически - можно использовать партиции. Практически - извращение. Лучше расскажите, какие возможны проблемы MS AS (MOLAP-кубы) на больших объемах? Пусть месячный объем ~ 100 млн. фактов. В такос случае рекомедую развратно-извратное чтиво http://www.microsoft.com/technet/prodtechnol/sql/2005/realpart.mspx]Project REAL: Data Lifecycle - Partitioning ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 02:02 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
dmitry_kzУважаемые гуру, из всего вышесказанного я так понял, что у меня работать все будет очень плохо, даже если будет работать вообще? ( У меня MSAS2K. Объемы примерно следующие: Кол-во строк в одной самой большой таблице будет превышать 150 млн. записей. Общий объем всего хранилища будет примерно около 50 Гигов (это только данные без агрегатов и т.д.). Объемы с каждым днем растут :( Стоит задача построения отчетов с использованием ОЛАПа. Сейчас OLTP работает на MS AS 7.0 (2K). Попробуйте смоделировать ситуацию. Это времени много не займёт. Сгенерируйте простенькую схему, накачайте туда случайным образом сгенерированные данные и посмотрите, как быстро будут идти запросы. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 09:50 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Jurii2 dmitry_kz: из всего вышесказанного я так понял, что у меня работать все будет очень плохо. У меня MSAS2K. Объемы примерно следующие: Кол-во строк в одной самой большой таблице будет превышать 150 млн. записей. Стоит задача построения отчетов с использованием ОЛАПа. Я бы сказал, что вопрос не в том, какая СУБД используется для создания хранилища данных, а какое OLAP-средство работает поверх хранилища... Я могу легко сделать ХД на основе MS Access или файлов DBF, закачать туда миллиард записей, и все будет работать с 5-секундным откликом на каждый запрос пользователя. Просто чтобы это достичь, я буду использовать OLAP-сервер, который преобразует реляционные данные в формат MOLAP-куба. Так что 150 миллионов для MS SQL при правильном выборе OLAP-сервера - это небольшой объем. А у меня не получилось. После 5 млн. записей PowerPlay свалился. Кстати пользуясь случаем хотел задать вопрос. Может ли PP взять данные например из SQL сервера? Если да, как это сделать? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 09:52 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
_zx Константин Лисянский Действительно, внедряю. Информация на сайте www.teradata.com Не подскажите, сколько будет стоить внедрение Teradata? Чтоб я понял, стоит ли копать в этом направлении, или нет:) Ситуация: работаем на Navision Attain (мать его в дышло... слов нет...), в авральном режиме наделали кубов в MS AS (т.к. сразу поняли, что строить аналитические отчеты в Navision - это все равно что... даже не знаю с чем сравнить), которые берут данные из вьюшек на SQL-сервере, а вьюшки - непосредственно из Navision. Есть большое желание сделать все по-человечьи, т.е. построить DW, куда из гребанного Navision будут подливаться данные, и уж на основе DW строить систему аналитики. Вот. Объем базы Navision с 01/02 по сегод. день составляет 62 ГБ. Можете исходя из перечисленного прикинуть стоимость внедрения? в нынешнем состочнии где у вас узкое место что тормозит, выборка из navision? процессинг кубов? как понимаю процессинг, вы каждый раз делаете полный процессинг или по партициям? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 09:57 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Константин Лисянский Виктор СаковичИ учтите, что нормализация не всегда хороша, если речь идёт о хранилищах данных Виктор, я всю жизнь думал, что хранилище денных должно быть нормализованным для обеспечения той самой единственной версии правды, о которой упомянул Моша. Интересно, ради чего, по-твоему, нужно в хранилищах жертвовать нормализацией? Уж не ради производительности же? С уважением, Константин Лисянский http://lissianski.narod.ru Константин, всё хорошо в меру. Я не верю, что ты не знаешь что такое звезда. А то, что называется частично денормализованной схемой, мне очень нравится и работает очень неплохо. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 09:59 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Валек в нынешнем состочнии где у вас узкое место что тормозит, выборка из navision? процессинг кубов? как понимаю процессинг, вы каждый раз делаете полный процессинг или по партициям? Как сказать, все тормозит. Сервер наш явно не справляется со своими задачами, уже разместили заказ на новый, будет установлен в следующем году. Но всех проблем это все равно не решит, т.к. все равно нужно будет строить ХД, в котором собирать данные за несколько лет. КСТАТИ: нет ли у кого-нибудь ссылки на материалы о Cognos? Рассматривам его в кач-ве олап - клиента, но перед покупкой хотелось бы понять, что он умеет. А то в рекламе-то много пишут, а что там на самом деле... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 10:47 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 backfire: Юра у вас в школе что было по математике? В первом классе я был круглым отличником :) Потом пятерки по математике сочетались с двойками за систематическое невыполнение домашнего задания, в итоге выходили четверки, но в университете с математикой у меня было все круто, даже открытие одно совершил (решил задачу, которую 100 лет назад решил Лобачевский, но другим, более легким способом :) Пример из арифметики 2-го класса начальной школы. максимальный размер базы в access 2 Gb, максимальный размер таблицы - не больше 2Gb, следовательно если вы запихнете в 1 (одну) таблицу 1 миллиард записей, то длинна записи должна быть не больше 2-х байт. Это все конечно так, но кто сказал, что хранилище данных должно состоять из одной базы данных? Например, таблица фактов у меня будет содержать записи по 200 байт, всего записей в одной БД будет 7-8 миллионов, а баз данных у меня будет 140-150 штук. В OLAP-сервер я соответственно вставлю 140-150 одинаковых источников данных, и операция Union будет делаться на OLAP-сервере. В качестве железа при этом мне потребуется обычный однопроцессорный компьютер, какое-либо ультрамощное железо не требуется, так как не будет сложных SQL-запросов. 2 Виктор Сакович: А у меня не получилось. После 5 млн. записей PowerPlay свалился. Кстати пользуясь случаем хотел задать вопрос. Может ли PP взять данные например из SQL сервера? Если да, как это сделать? Думаю проблема в том, что Вы не проходили официального обучения по PowerPlay и пользуетесь пиратской версией этого продукта. По информации полученной из корпорации Cognos, Ваша компания пока имеет право заниматься только продуктами Cognos Planning... :) Если серьезно, то большие кубы в PowerPlay можно делать и без обучения, но только если не встретится сложных ситуаций, в которых нужно не допустить ошибок в проектировании куба. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 11:01 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Jurii2 backfire: 2 Виктор Сакович: А у меня не получилось. После 5 млн. записей PowerPlay свалился. Кстати пользуясь случаем хотел задать вопрос. Может ли PP взять данные например из SQL сервера? Если да, как это сделать? Думаю проблема в том, что Вы не проходили официального обучения по PowerPlay и пользуетесь пиратской версией этого продукта. По информации полученной из корпорации Cognos, Ваша компания пока имеет право заниматься только продуктами Cognos Planning... :) Если серьезно, то большие кубы в PowerPlay можно делать и без обучения, но только если не встретится сложных ситуаций, в которых нужно не допустить ошибок в проектировании куба. То есть у обученных PP не сваливается? И почему Вы не отвечаете на вопрос по поводу коннекта к SQL серверу? Это тоже только для обученных? Да, и Вы что за компанию имеете в виду, которая имеет право заниматься Cognos Planning? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 11:14 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
_zx КСТАТИ: нет ли у кого-нибудь ссылки на материалы о Cognos? Рассматривам его в кач-ве олап - клиента, но перед покупкой хотелось бы понять, что он умеет. А то в рекламе-то много пишут, а что там на самом деле... Вам лучше всего съездить на презентации в разные компании и там вам покажут Cognos. Причем предварительно перешлите им всем примерный список задч и если есть возможность тестовый набор данных - пусть вам покажут что умеют. После перзентации станет понятно и что такое Cognos BI а может и испольнителя подберете. А что касается материалов - то на русском врядли чтото найдете, на english смотрите в сторону cognoise.com и например ittoolbox.com - там найдете ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 11:14 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 _zx: нет ли у кого-нибудь ссылки на материалы о Cognos? Рассматривам его в кач-ве олап - клиента, но перед покупкой хотелось бы понять, что он умеет. А то в рекламе-то много пишут, а что там на самом деле... Могу Вас познакомить с моими знакомыми, которые достаточно давно используют Cognos, анализируя в нем данные из Navision Attain (хотя постепенно переходят на другую ERP-систему). Размер реляционной базы у них измеряется трехзначным числом гигабайт. Компания является лидером на рынке соков, настолько известная, что называть ее нет необходимости :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 11:14 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 Jurii Если честно не совсем ясно: в кубе хранится агрегат и вся базовая табличка? Прошу прощения за офф-топик Juriiрешил задачу, которую 100 лет назад решил Лобачевский, но другим, более легким способом Коллега, вы тоже занимались аксиоматикой Лобачевского? Где, если не секрет? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 11:31 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Jurii2 backfire: Пример из арифметики 2-го класса начальной школы. максимальный размер базы в access 2 Gb, максимальный размер таблицы - не больше 2Gb, следовательно если вы запихнете в 1 (одну) таблицу 1 миллиард записей, то длинна записи должна быть не больше 2-х байт. Это все конечно так, но кто сказал, что хранилище данных должно состоять из одной базы данных? Например, таблица фактов у меня будет содержать записи по 200 байт, всего записей в одной БД будет 7-8 миллионов, а баз данных у меня будет 140-150 штук. В OLAP-сервер я соответственно вставлю 140-150 одинаковых источников данных, и операция Union будет делаться на OLAP-сервере. В качестве железа при этом мне потребуется обычный однопроцессорный компьютер, какое-либо ультрамощное железо не требуется, так как не будет сложных SQL-запросов.. Буду сильно удивлен, если кто то кроме Вас в этом форуме назовет это сборище из 150 аксессовских баз хранилищем данных. Jurii 2 Виктор Сакович: А у меня не получилось. После 5 млн. записей PowerPlay свалился. Кстати пользуясь случаем хотел задать вопрос. Может ли PP взять данные например из SQL сервера? Если да, как это сделать? Думаю проблема в том, что Вы не проходили официального обучения по PowerPlay и пользуетесь пиратской версией этого продукта. .... Юрий, почему вы всех считаете такими идиотами, что они без вашего обучения не разберутся с PP. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 12:24 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Короче, вывод: для начала делаем все в MS SQL-server, а потом посмотрим на производительность. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 16:47 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Виктор Сакович А у меня не получилось. После 5 млн. записей PowerPlay свалился. Кстати пользуясь случаем хотел задать вопрос. Может ли PP взять данные например из SQL сервера? Если да, как это сделать? Что свалился -- странно, такого не должно быть, данных маловато. Какова структура dimension и count'ы? На второй вопрос: Может. Далее варианты решения: Версия 7.х Берем Impromtu, прописываем запрос в базу, сохраняем как iqd (impromtu query definition), его подсовываем PP. Как вариант .iqd пишем руками в блокноте -- довольно простая структура (правда могут быть проблемы с безопасностью). Если в кач-ве источника AS-кубы -- то используем PP Connect. Версия 8. Источник прописывается во Framework Manager и вперед, он доступен в Analysis Studio. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 20:16 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 Виктор Сакович: То есть у обученных PP не сваливается? Обученные пользователи PowerPlay не делают грубых ошибок при проектировании кубов, поэтому у них ничего не сваливается. И почему Вы не отвечаете на вопрос по поводу коннекта к SQL серверу? Это тоже только для обученных? :) Это открытая информация. Подключаться к SQL-серверу можно либо через OLE DB, либо через ODBC. Можно подключаться используя модуль Framework manager, можно из Impromptu, а можно и через механизм создания связей с таблицами в MS Access. Ну и на крайний случай - с помощью программы Notepad (Блокнот), если написать в ней немного текста и сохранить это в формате IQD. Да, и Вы что за компанию имеете в виду, которая имеет право заниматься Cognos Planning? Я имею в виду компанию, в которой Вы работаете. Думаю что ни для кого не секрет что это S&T. 2 inga: А что касается материалов - то на русском врядли чтото найдете На русском языке про Cognos можно почитать на нашем форуме, а также на форуме www.olap.ru . Также можно почитать русскую документацию по Cognos. 2 MSTR_Fan: Если честно не совсем ясно: в кубе хранится агрегат и вся базовая табличка? Вся базовая табличка не хранится, хранятся агрегаты. Но если включить в структуру куба все возможные измерения с иерархией до самого детального уровня, то в кубе, наложив тот или иной фильтр, можно будет найти любую запись из базовой таблицы фактов. Коллега, вы тоже занимались аксиоматикой Лобачевского? Где, если не секрет? Аксиоматикой я не занимался. Я занимался задачей определения корней алгебраических многочленов высоких степеней, например X^205 + 10*X^200 + 1 = 0. Давно это было, когда я учился в Санкт-Петербургском Государственном Техническом Университете на факультете экономики и менеджмента. А сейчас этот ВУЗ изменил название с СПбГТУ на ГПУ :) 2 backfire: Буду сильно удивлен, если кто то кроме Вас в этом форуме назовет это сборище из 150 аксессовских баз хранилищем данных. Когда-то люди сильно удивлялись, когда узнавали что Земля - круглая :) В теории ХД насколько я знаю нет ограничений на количество баз данных, входящих в ХД. Оракл например позволяет разносить одну таблицу по разным дискам. Чем же плох подход разнесения таблицы фактов по разным файлам DBF или Access? Юрий, почему вы всех считаете такими идиотами, что они без вашего обучения не разберутся с PP. Я не говорил что в PP разобраться невозможно. Я лишь напоминаю о полезности обучения тем, кто не смог своими силами научиться работать в PP. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 21:03 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
_zxКороче, вывод: для начала делаем все в MS SQL-server, а потом посмотрим на производительность. Правильное решение. Поддерживаю. Потренируетесь на кошках, будете знать лучше где грабли лежат и более осознанно совершать выбор. Желаю удачи! С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 22:22 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
авторВ теории ХД насколько я знаю нет ограничений на количество баз данных, входящих в ХД. Ну да??? Перебором не проверяли? авторОракл например позволяет разносить одну таблицу по разным дискам. Почему же только Oracle? Можно еще RAID 5 или 10 для хранения DBF файлов использовать. авторЧем же плох подход разнесения таблицы фактов по разным файлам DBF или Access? Удивительно технологичное решение. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 22:31 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
JuriiЧем же плох подход разнесения таблицы фактов по разным файлам DBF или Access? Тем, что больше ни для чего, как для закачивания в PowerPlay эти файлы пригодиться не могут. PowerPlay не решает всех задач. Захочется статистику какую-нибудь по всему набору данных посчитать, или какой-нибудь сложный отчёт составить по всему миллиарду записей, что делать будете? Кстати, вот вы тут все смеётесь, а я одного такого деятеля видел, который на DBF-файлах "хранилище" сделал. Кстати в доволно немаленькой телекоммуникационной кампании (правда, купили её, не выдержала, видать, конкуренции). Так вот, это хранилище раз в месяц отчёты выдавало после того, как их программа самописная пару-тройку дней рассчитывала. Зато дёшево и сердито. Вот бы им туда ещё PowerPlay, может быть, и конкуренов победили бы. Настоящее промышленное решение получилось бы. А если инкрементальную загрузку реализовать, то можно было бы ещё и в real-time анализ производить. И наступила бы у них полная нирвана. А ещё в одном банке был (кстати, держится сейчас где-то в верхних позициях рейтингов). Они на MS Access сделали "хранилище", потом нас позвали и пожаловались, что файлы больше 2 ГБ в Access нельзя делать, и что такой у них геморрой в связи с этим, потому что файлы плодить приходится. У них там целый человеко-машинный комплекс получился, Вашим Когносам и не снилось. А ещё в одном банке приходилось видеть "хранилище" на (барабанная дробь) Microsoft Excel. Кстати, у меня создаётся впечатление, что хранилище можно построить, практически на любом продукте от Microsoft, кроме, пожалуй интерпретатора коммандной строки старика COMMAND.COM, он уж, точно, для этого не предназначен. Кстати, объявляется конкурс среди популярных программ для IBM PC на лучшую платформу для хранилища данных. Думаю, можно даже приз учредить за самое оригинальное решение. С уважением, Константин Лисянский http://lissianski.narod.ru ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2005, 23:03 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Константин Лисянский JuriiЧем же плох подход разнесения таблицы фактов по разным файлам DBF или Access? Тем, что больше ни для чего, как для закачивания в PowerPlay эти файлы пригодиться не могут. PowerPlay не решает всех задач. Захочется статистику какую-нибудь по всему набору данных посчитать, или какой-нибудь сложный отчёт составить по всему миллиарду записей, что делать будете? Кстати, вот вы тут все смеётесь, а я одного такого деятеля видел, который на DBF-файлах "хранилище" сделал. Кстати в доволно немаленькой телекоммуникационной кампании (правда, купили её, не выдержала, видать, конкуренции). Так вот, это хранилище раз в месяц отчёты выдавало после того, как их программа самописная пару-тройку дней рассчитывала. Зато дёшево и сердито. Вот бы им туда ещё PowerPlay, может быть, и конкуренов победили бы. Настоящее промышленное решение получилось бы. А если инкрементальную загрузку реализовать, то можно было бы ещё и в real-time анализ производить. И наступила бы у них полная нирвана. А ещё в одном банке был (кстати, держится сейчас где-то в верхних позициях рейтингов). Они на MS Access сделали "хранилище", потом нас позвали и пожаловались, что файлы больше 2 ГБ в Access нельзя делать, и что такой у них геморрой в связи с этим, потому что файлы плодить приходится. У них там целый человеко-машинный комплекс получился, Вашим Когносам и не снилось. А ещё в одном банке приходилось видеть "хранилище" на (барабанная дробь) Microsoft Excel. Кстати, у меня создаётся впечатление, что хранилище можно построить, практически на любом продукте от Microsoft, кроме, пожалуй интерпретатора коммандной строки старика COMMAND.COM, он уж, точно, для этого не предназначен. Кстати, объявляется конкурс среди популярных программ для IBM PC на лучшую платформу для хранилища данных. Думаю, можно даже приз учредить за самое оригинальное решениеОй, насмешил :-) все в сад! учиться, учиться и ещё раз учиться! На конкурс педлагаю файлы CSV формата! а что? ограницений на размер нет, структура есть - можно импортировать и экспортировать... шутки, шутками, а сейчас с таким приходится работать. правда до 2Г ещё есть время, но тем не менее... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.12.2005, 00:53 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Юрий Кудрявцев Виктор Сакович А у меня не получилось. После 5 млн. записей PowerPlay свалился. Кстати пользуясь случаем хотел задать вопрос. Может ли PP взять данные например из SQL сервера? Если да, как это сделать? Что свалился -- странно, такого не должно быть, данных маловато. Какова структура dimension и count'ы? На второй вопрос: Может. Далее варианты решения: Версия 7.х Берем Impromtu, прописываем запрос в базу, сохраняем как iqd (impromtu query definition), его подсовываем PP. Как вариант .iqd пишем руками в блокноте -- довольно простая структура (правда могут быть проблемы с безопасностью). Если в кач-ве источника AS-кубы -- то используем PP Connect. Версия 8. Источник прописывается во Framework Manager и вперед, он доступен в Analysis Studio. Юрий, спасибо. Будет время, попробую. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.12.2005, 17:30 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Jurii2 Виктор Сакович: Обученные пользователи PowerPlay не делают грубых ошибок при проектировании кубов, поэтому у них ничего не сваливается. И почему Вы не отвечаете на вопрос по поводу коннекта к SQL серверу? Это тоже только для обученных? :) Это открытая информация. Подключаться к SQL-серверу можно либо через OLE DB, либо через ODBC. Можно подключаться используя модуль Framework manager, можно из Impromptu, а можно и через механизм создания связей с таблицами в MS Access. Ну и на крайний случай - с помощью программы Notepad (Блокнот), если написать в ней немного текста и сохранить это в формате IQD. Да, и Вы что за компанию имеете в виду, которая имеет право заниматься Cognos Planning? Я имею в виду компанию, в которой Вы работаете. Думаю что ни для кого не секрет что это S&T. . Юрий, спасибо. Попробую. Я не думаю, что сделал грубую ошибку - 5 миллионный куб ведь нормально работает. Может памяти какой не хватило. Я вижу, что компания S&T для Вас враг №1. Но я не работаю в S&T. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.12.2005, 17:38 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
2 Андрей Прохоров: В теории ХД насколько я знаю нет ограничений на количество баз данных, входящих в ХД. Ну да??? Перебором не проверяли? Немного не понял Вашу реплику? Что Вы предлагаете проверять перебором? Оракл например позволяет разносить одну таблицу по разным дискам. Почему же только Oracle? Можно еще RAID 5 или 10 для хранения DBF файлов использовать. Насчет RAID - не знаю, но вот на стриммерной ленточке архивные базы хранятся часто, в частности в крупных розничных сетях. С ленточки исторические данные копируются на жесткий диск, загружаются инкрементально по кусочкам в OLAP-куб, и затем удаляются с диска в целях экономии места. Чем же плох подход разнесения таблицы фактов по разным файлам DBF или Access? Удивительно технологичное решение. Это все эмоции. Объективно что-нибудь можете сказать про минусы хранения больших БД в формате DBF или Access? 2 Константин Лисянский: Чем же плох подход разнесения таблицы фактов по разным файлам DBF или Access? Тем, что больше ни для чего, как для закачивания в PowerPlay эти файлы пригодиться не могут. PowerPlay не решает всех задач. Всех не решает, но как аналитическое средство и средство создания корпоративной отчетности PowerPlay достаточно наполнен функциональностью Захочется статистику какую-нибудь по всему набору данных посчитать, или какой-нибудь сложный отчёт составить по всему миллиарду записей, что делать будете? Я не спорю, какой-то процент задач не будет покрыт кубами PowerPlay, чем лучше спроектировать кубы - тем этот процент будет меньше. Но ведь зачастую те у кого есть миллиард записей их вообще никак не анализируют, слишком уж дорого получается создавать ХД на промышленной СУБД под это дело. Поэтому с точки зрения соотношения цена/функциональность, ХД на основе DBF + OLAP в PP - это не так плохо. Кстати, вот вы тут все смеётесь, а я одного такого деятеля видел, который на DBF-файлах "хранилище" сделал. Вот бы им туда ещё PowerPlay. А если инкрементальную загрузку реализовать, то можно было бы ещё и в real-time анализ производить. И наступила бы у них полная нирвана. Вот это здравые мысли. Но к сожалению PowerPlay пока присутствует не на каждом компьютере, не все его видели и юзали... А ещё в одном банке на MS Access сделали "хранилище", потом нас позвали и пожаловались, что файлы больше 2 ГБ в Access нельзя делать, и что такой у них геморрой в связи с этим, потому что файлы плодить приходится. У них там целый человеко-машинный комплекс получился, Вашим Когносам и не снилось. И чем все кончилось? Вы им внедрили Терадату и все залетало? А ещё в одном банке приходилось видеть "хранилище" на (барабанная дробь) Microsoft Excel. Ну это вариант не очень хороший, Excel вмещает довольно мало данных и, что самое главное, хранит их не так плотно как DBF или CSV. В том случае когда на входе множество файлов Excel - я из загружаю в ХД, реализованное на промышленной СУБД, и только потом сверху ставлю OLAP-сервер и OLAP-клиент. Кстати, объявляется конкурс среди популярных программ для IBM PC на лучшую платформу для хранилища данных. Думаю, можно даже приз учредить за самое оригинальное решение. Думаю что это тема для диссертации - написать технико-экономическое обоснование на тему почему DBF эффективнее чем Oracle, MS SQL и другие СУБД :) 2 Дмитрий Бирюков: На конкурс педлагаю файлы CSV формата! а что? ограницений на размер нет, структура есть - можно импортировать и экспортировать... шутки, шутками, а сейчас с таким приходится работать. правда до 2Г ещё есть время, но тем не менее... Да, CSV - это популярный формат. Многие ERP-системы сначала выгружают из себя данные в CSV, а потом их подхватывает OLAP-модуль. Если Вы достигните 2 Гб - сделайте несколько файлов CSV и проблема решится :) 2 Виктор Сакович: Я вижу, что компания S&T для Вас враг №1. Но я не работаю в S&T. S&T - это не враг, это все таки единомышленник, во многих странах они являются партнерами Cognos. А вот то что Вы не работаете в S&T - это большой сюрприз. Значит ссылка http://www.osp.ru/conf/2004/6/3.htm - уже устарела? Если не секрет, чем Вы сейчас занимаетесь? Все так же MSTR, или переквалифицировались на Cognos? Было бы интересно с вами пообщаться, напишите мне на cognos@narod.ru тестовое сообщение. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.12.2005, 20:52 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Константин ЛисянскийКстати, объявляется конкурс среди популярных программ для IBM PC на лучшую платформу для хранилища данных. Думаю, можно даже приз учредить за самое оригинальное решение. Предлагаю Microsoft Exchange + Outlook в качестве клиента. Преимущества solution на лицо: 1)ETL "из коробки", работа с любыми источниками данных, даже не структурированными 2) масса клиентских приложений по pop3 и smtp, тонкий клиент 3) практически неограниченная масштабируемость, с учетом возможности скинуть почтовый архив на ленту 4) возможность перехода от ETL к EAI (при помощи forward) Ну как, я выиграл? :-) JuriiS&T - это не враг, это все таки единомышленник, во многих странах они являются партнерами Cognos. Ох сейчас кому-то икается :)) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.12.2005, 22:05 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Jurii S&T - это не враг, это все таки единомышленник, во многих странах они являются партнерами Cognos. А вот то что Вы не работаете в S&T - это большой сюрприз. Значит ссылка http://www.osp.ru/conf/2004/6/3.htm - уже устарела? Если не секрет, чем Вы сейчас занимаетесь? Все так же MSTR, или переквалифицировались на Cognos? Было бы интересно с вами пообщаться, напишите мне на cognos@narod.ru тестовое сообщение. Ссылка конечно довольно древняя. Не секрет, занимаюсь MSTR, но буду смотреть и другие продукты, чтобы иметь возможность предлагать заказчикам разные решения. Каждый продукт ведь хорош для какого-то определённого круга задач. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.12.2005, 11:13 |
|
||
|
DWH в MS SQL Server
|
|||
|---|---|---|---|
|
#18+
Всё, как когда-то:-) Теперь, пару слов про SQL Server 2k. Я принимал непосредственное участие и воочию видел ряд приличных хранилищ на оном с таблицами фактов до 150 млн. записей. Причём, ОЛАП-сервера были разные: MS AS и SAP BW. И всё отлично работало не, не захлёбывалось. Так что, на мой персональный взгляд, в качестве СУБД, SQL Server 2k у вас не захлебнётся. Не говоря уже о SQL Server 2005. Производительность будет сильно зависеть от решаемых задач и выбора ОЛАП-сервера. Точнее, от этого будет зависеть, какое железо вам понадобится. Если же у вас задачи телекома или розницы, тогда надо прототипировать на мой взгляд, на самых критичных задачах. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.12.2005, 11:11 |
|
||
|
|

start [/forum/topic.php?all=1&fid=49&tid=1870779]: |
0ms |
get settings: |
11ms |
get forum list: |
17ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
57ms |
get topic data: |
12ms |
get forum data: |
3ms |
get page messages: |
128ms |
get tp. blocked users: |
1ms |
| others: | 269ms |
| total: | 506ms |

| 0 / 0 |
