|
|
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Привет, В чем ключевые поинты Teradata по сравнению с Exadata? Я знаю как устроен Oracle и Exadata, у меня задача понять, в каких аспектах Teradata лучше Exadata? Ведь, очевидно, у каждой СУБД есть какие-то свои преимущества. Что в Teradata сделано иначе и при этом лучше, чем в Oracle? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 22.02.2012, 15:58 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Большой и для многих сугубо "религиозный" вопрос к обсуждению. Зависит от того какого класса задачи ты собираешься решать. Exadata появилась на рынке года 3-4 назад. По сути тот же Oracle только с навороченной быстрой дисковой подсистемой. Терадата на рынке СУБД для хранилищ живет уже лет 30. На вскидку что очень неплохо в Терадате - 1) автоматическое равномерное раскидывание данных по хэшу 2) не надо заморачиваться с созданием табличных пространств и пр. 3) Workload Management - возможности динамически раздавать приоритеты разным группам запросов пользователей 4) Линейная масштабируемость с возможностью сосуществования в одной системе узлов разных поколений 5) Систему реально могут долбить запросы самой разной сложности от большого числа пользователей 6) Полная линейка железа начиная с детских систем, поддержка систем с SSD винтами, систем ориентированных как на витрины данных (appliances) так и на полномасштабное ХД. 7) Возможность в одной системе использовать быстрые и медленные винты с динамическим распределением "горячих" данных на быстрые диски 8) Поддержка temporal таблиц 9) Автоматическое hardware compression в новой платформе для appliances 10) Неплохой оптимизатор, можно на английском языке понятно и удобно читать планы выполнения запросов и т.д. Про Оракл не знаю, но огульно хаить не буду. Свои преимущества там тоже есть. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 24.02.2012, 19:47 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Спасибо Павел, за ваш ответ. В моем случае я ищу более глубокое описание ключевых архитектурных отличий. Мне как специалисту по ораклу интересно какие есть штуки лучше, чем у оракла. Ну, скажем, что оптимизатор в терадате лучше по таким-то причинам. Или, shared nothing позволяет добиться того-то, а в оракле с shared everything такое в принципе невозможно. По вышесказанному, почти все на мой взгляд не очень существенный детали, кроме: 1) автоматическое равномерное раскидывание данных по хэшу - т.е. эдакий страйпинг по разным устройствам? Есть ли ключевые преемущества перед страйпингом в Оракловом ASM? 4) Линейная масштабируемость с возможностью сосуществования в одной системе узлов разных поколений Существование узлов разных поколений это гуд, однако что такое линейная масштабируемость? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 27.02.2012, 16:50 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
вспомним молодостьНу, скажем, что оптимизатор в терадате лучше по таким-то причинам. Или, shared nothing позволяет добиться того-то, а в оракле с shared everything такое в принципе невозможно. Это вопрос из серии что круче Порш Каен или Кадилак Эскалад? Тебе накидают до тучи советов и "умных" рекомендаций, а проще самому пойти к дилеру и по-тест-драйвить обе тачки, потом определиться с бюджетом и ограничиться скажем тойотой камри в лиз. :-) ИМХО надо просто качнуть продукт и потестировать его в "домашних" условиях. Серьезные клиенты кстати для этого и делают бенчмарки разных СУБД именно на своих данных, чтобы понять что им лучше подходит. Я не знаю как устроен Оракл ASM. В Терадате все устроено очень просто. При создании таблицы одна из колонок с наиболее уникальными значениями (как правило первичный ключ) обьявляется т.н. primary index. Далее при заливке данных в таблицу генерится 32-х битный row hash который определяет на какой диск пойдет строка при вставке. Вот собственно и все. Данные для больших таблиц размазаны равномерно по диску как масло на бутерброде. В самой СУБД есть нарезка из внутренних виртуальных процессов (AMP), каждый из которых читает и пишет в свой отдельный кусок диска непересакаясь с другими процессами. Сам DDL для таблицы выглядит примерно так create table Table1 (c1 int, c2 char(20) ...) primary index (c1) Есть разновидности primary index с последующим партицированием, но это уже частности. вспомним молодость Существование узлов разных поколений это гуд, однако что такое линейная масштабируемость? Система превоначально состоит их N узлов, добавили еще N узлов с диском, стало 2N. Виртульных процессов (AMP) в СУБД стало в 2 раза больше и масло на бутерброде (то бишь данные) размазаны более тонким слоем. При всех прочих равных условиях скорость запросов выросла в 2 раза. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 29.02.2012, 19:09 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Павел Новокшонов1) автоматическое равномерное раскидывание данных по хэшуТут, кстати, бывает подляна, при полностью автоматическом (= ленивом) подходе к делу. Когда очень большой словарь заполняется большими логически связанными пакетами записей, primary key назначается из последовательности и, соответственно, почти все вставки --- "правофланговые", раскидывать надо по хэшу, не учитывающему сколько-то наименее значащих бит primary key, чтобы улучшить локальность. Более того, иногда разумно делать выравнивание, пропуская куски той последовательности. Иногда разумно вообще раскидывать загрузку по машинам, и на каждой машине выделять новые значения primary key так, чтобы по максимуму грузить именно свои диски. Все эти пляски с бубном в любом известном мне хоронилище данных выглядят одинаково нудно и автоматизации поддаваться не хотят. Терадата, конечно, справляется с масштабной OLAP-нагрузкой удивительно хорошо для горизонтального хранилища, но сами понимаете --- при должном желании и опыте придраться можно к кому угодно ;) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.03.2012, 03:49 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Павел Новокшоноввспомним молодость Существование узлов разных поколений это гуд, однако что такое линейная масштабируемость? Система превоначально состоит их N узлов, добавили еще N узлов с диском, стало 2N. Виртульных процессов (AMP) в СУБД стало в 2 раза больше и масло на бутерброде (то бишь данные) размазаны более тонким слоем. При всех прочих равных условиях скорость запросов выросла в 2 раза.Если б всё было так просто. Удвоив число узлов вы не только уполовинили объём данных на каждом узле, вы ещё уполовинили число клиентов, приходящихся на узел, удвоили общий размер ОЗУ кластера и удвоили cache/disk ratio. С другой стороны, число сетевых пакетов, прокачиваемых между узлами, в зависимости от запросов в лучшем случае не изменилось, а в худшем --- выросло вчетверо. В итоге что такое "линейная масштабируемость" знают только маркетологи. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.03.2012, 04:48 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
iv_an_ruПавел Новокшоновпропущено... Система превоначально состоит их N узлов, добавили еще N узлов с диском, стало 2N. Виртульных процессов (AMP) в СУБД стало в 2 раза больше и масло на бутерброде (то бишь данные) размазаны более тонким слоем. При всех прочих равных условиях скорость запросов выросла в 2 раза.Если б всё было так просто. Все именно так просто, как сказал Павел. iv_an_ruУдвоив число узлов вы не только уполовинили объём данных на каждом узле, вы ещё уполовинили число клиентов, приходящихся на узел, удвоили общий размер ОЗУ кластера и удвоили cache/disk ratio. А что по-вашему должно было произойти при увеличении числа узлов при прочих равных, данные и пользователи должны удвиться, а ОЗУ и диски уполовиниться? К чему это вообще было написано? iv_an_ruС другой стороны, число сетевых пакетов, прокачиваемых между узлами, в зависимости от запросов в лучшем случае не изменилось, а в худшем --- выросло вчетверо. В итоге что такое "линейная масштабируемость" знают только маркетологи. Чушь. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.03.2012, 21:14 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
iv_an_ru Тут, кстати, бывает подляна, при полностью автоматическом (= ленивом) подходе к делу. Когда очень большой словарь заполняется большими логически связанными пакетами записей, primary key назначается из последовательности и, соответственно, почти все вставки --- "правофланговые", раскидывать надо по хэшу, не учитывающему сколько-то наименее значащих бит primary key, чтобы улучшить локальность. Простите, вы проводили исследования алгоритмов вычисления хэшей испоьлзуемых в Терадате? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.03.2012, 21:42 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
вспомним молодостьНу, скажем, что оптимизатор в терадате лучше по таким-то причинам. Или, shared nothing позволяет добиться того-то, а в оракле с shared everything такое в принципе невозможно. Масштабируемость. Чем больше совместно используемых ресурсов, тем хуже масштабируемость. вспомним молодостьПо вышесказанному, почти все на мой взгляд не очень существенный детали Простота поддержки и эксплуатации - это оочень существенная деталь, яработал с Терадатой, я работал с Ораклом и сейчас продолжаю с ним работать именно в кластерной конфигурации - Терадату поддерживать на порядок проще. вспомним молодость1) автоматическое равномерное раскидывание данных по хэшу - т.е. эдакий страйпинг по разным устройствам? Есть ли ключевые преемущества перед страйпингом в Оракловом ASM? Главный недостаток АСМа в том, что он распределяет данные на уровне блоков файлов данных, а не на уровне сегментов данных. Т.о. файла он раскидывает по дискам равномерно, но вот данные конкретных таблиц - это большой вопрос. Четкой методики определить насколько равномерно распределен сегмент конкретной таблицы по физическим дискам к сожалению нет, я пробовал проверять путем поиска соответствия между конкретными экстентами АСМа и блоками данных таблицы используя эту статью , результат показал, что равномерного распределения данных нет. Но конечно возможно, что я что-то не так сделал. Так что если есть какие-то мысли на этот счет - вэлкам. Однако даже по логике расномерного распределения данных на уровне сегмента таблицы АСМ гарантировать не может, т.к. он функционирует совсем на другом слое, а Терадата это именно гарантирует. Вообще говоря, кластерность Оракла, как и параллелизм - это нашлепки к изначальной архитектуре, т.е. от изначально у Оракла этого всего не было и последствия этого мы видим до сих пор. Терадата же, напротив, архитектурно почти не изменилась с самого рождения. Оракл конечно допиливает потихоньку свой кластер, напрмер в десятке, чтобы убить сессию нужно было подключиться именно к той ноде, где эта сессия живет, в 11-й этого уже не нужно, хотя по-прежнему нужно знать где она живет. AWR отчеты по-прежнему строятся только в разрезе конкретного инстанса, чтобы посмотреть статистику по всему кластеру, нужно писать свои запросы к репозиторию AWR. И т.д. и т.п. Вы можете подумать, что это мелочи, но уж очень много этих мелочей. Про параллелизм Oracle - это отдельная история. Сейчас нет времени расписывать, потом выскажу свои мысли, если будет интересно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.03.2012, 22:31 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Apexiv_an_ru Тут, кстати, бывает подляна, при полностью автоматическом (= ленивом) подходе к делу. Когда очень большой словарь заполняется большими логически связанными пакетами записей, primary key назначается из последовательности и, соответственно, почти все вставки --- "правофланговые", раскидывать надо по хэшу, не учитывающему сколько-то наименее значащих бит primary key, чтобы улучшить локальность. Простите, вы проводили исследования алгоритмов вычисления хэшей испоьлзуемых в Терадате?Это классическая проблема для _всех_ хранилищ, у которых на все случаи жизни один "HASHROW" и один "HASHBUCKET". Хотите хэш универсальный и равномерный и сохраняющий локальность? Фигушки, выберите любые два из трёх. Терпят эту проблему ровно по одной причине --- мало шансов, что кто-то из апп-девелоперов сначала сможет для конкретного случая выбрать хэши колонок лучше, чем они сделаны по умолчанию, а потом ещё и более разумную загрузку сделать, чем "универсальный" вариант от вендора. Зато убить производительность сможет легко, а хаять будет вендора, а не себя криворукого. Терадатовцы себе не враги и приняли совершенно верное решение --- простейший неконфигурируемый интерефейс. Выжали равномерные 32 бита из строки, пережали в 16-битный номер корзинки, чтоб уменьшить размер таблиц поиска основного и резервного AMP по номеру корзинки, и всё. Просто и надёжно, как затвор калаша. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 00:31 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Apexiv_an_ruУдвоив число узлов вы не только уполовинили объём данных на каждом узле, вы ещё уполовинили число клиентов, приходящихся на узел, удвоили общий размер ОЗУ кластера и удвоили cache/disk ratio. А что по-вашему должно было произойти при увеличении числа узлов при прочих равных, данные и пользователи должны удвиться, а ОЗУ и диски уполовиниться? К чему это вообще было написано?Написано к тому, что изменение каждого из этих параметров даёт нелинейный эффект, и было бы удивительно, если бы их произведение случайно дало "ровно в два раза". Разве что у вас все данные укладываются в ОЗУ и сеть между узлами никогда-никогда не оказывается узким местом. Тогда я рад за вас и за ваш богатый бюджет. Ну или наоборот, все данные безнадёжно холодные на дисках, процессоры медленные и малочисленные, а сеть не оказывается узким местом просто потому, что древние ящики не в состоянии её нормально загрузить. Тогда у вас черепаха тоже поползёт ровно в два раза быстрее. Но согласитесь --- большинство систем в эти крайности не впадают. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 00:58 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
iv_an_ruЭто классическая проблема для _всех_ хранилищ, у которых на все случаи жизни один "HASHROW" и один "HASHBUCKET". Хотите хэш универсальный и равномерный и сохраняющий локальность? Фигушки, выберите любые два из трёх. Терпят эту проблему ровно по одной причине --- мало шансов, что кто-то из апп-девелоперов сначала сможет для конкретного случая выбрать хэши колонок лучше, чем они сделаны по умолчанию, а потом ещё и более разумную загрузку сделать, чем "универсальный" вариант от вендора. Зато убить производительность сможет легко, а хаять будет вендора, а не себя криворукого. Терадатовцы себе не враги и приняли совершенно верное решение --- простейший неконфигурируемый интерефейс. Выжали равномерные 32 бита из строки, пережали в 16-битный номер корзинки, чтоб уменьшить размер таблиц поиска основного и резервного AMP по номеру корзинки, и всё. Просто и надёжно, как затвор калаша. Т.е. на определенных значенияx ключей можно получить сильно неравномерное распределение? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 01:13 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
iv_an_ruНаписано к тому, что изменение каждого из этих параметров даёт нелинейный эффект, и было бы удивительно, если бы их произведение случайно дало "ровно в два раза". Павел написал "при прочих равных". Т.е. не поменялось ничего, а кол-во узлов увеличилось. iv_an_ruРазве что у вас все данные укладываются в ОЗУ и сеть между узлами никогда-никогда не оказывается узким местом. Если количество узлов терадаты увеличивается в два раза, то кол-во дисков тоже увеличивается в два раза. Конфигурация каждого узла подбирается таким образом, чтобы был баланс между скоростью чтения данных и скоростью их обработки, другими словами увеличение количества дисков на узел без увеличения кол-ва ядер\апргрейда обычно ничего не даст. Тоже самое с сетью, пропускная способность интерконнекта увеличивается пропорционально кол-ву узлов в кластере, поэтому узким местом не является. iv_an_ruТогда я рад за вас и за ваш богатый бюджет. Ну или наоборот, все данные безнадёжно холодные на дисках, процессоры медленные и малочисленные, а сеть не оказывается узким местом просто потому, что древние ящики не в состоянии её нормально загрузить. Тогда у вас черепаха тоже поползёт ровно в два раза быстрее. Но согласитесь --- большинство систем в эти крайности не впадают. Вы сейчас про Терадату или какую-то абстрактную кластерную СУБД? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 01:22 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Apexiv_an_ruЭто классическая проблема для _всех_ хранилищ, у которых на все случаи жизни один "HASHROW" и один "HASHBUCKET". Хотите хэш универсальный и равномерный и сохраняющий локальность? Фигушки, выберите любые два из трёх. Терпят эту проблему ровно по одной причине --- мало шансов, что кто-то из апп-девелоперов сначала сможет для конкретного случая выбрать хэши колонок лучше, чем они сделаны по умолчанию, а потом ещё и более разумную загрузку сделать, чем "универсальный" вариант от вендора. Зато убить производительность сможет легко, а хаять будет вендора, а не себя криворукого. Терадатовцы себе не враги и приняли совершенно верное решение --- простейший неконфигурируемый интерефейс. Выжали равномерные 32 бита из строки, пережали в 16-битный номер корзинки, чтоб уменьшить размер таблиц поиска основного и резервного AMP по номеру корзинки, и всё. Просто и надёжно, как затвор калаша. Т.е. на определенных значенияx ключей можно получить сильно неравномерное распределение?В Терадате это очень маловероятно, тем более что они специально приняли меры, чтобы и без того малую вероятность ещё уменьшить в случае длинных строк с естественным текстом (и, соответственно, с очень малой информацией на байт). Поэтому хэш универсальный и равномерный. Но локальностью пришлось пожертвовать. Вот в OpenLink Virtuoso решили выпендриться и хэширование при необходимости настраивать для каждого индекса в отдельности. Это чтобы в некоторых тяжёлых случаях и локальность сохранить и равномерность пристойную. Получилось. Например, для RDF. Но если я вам скажу, во сколько килобаксов обошлась разработка хорошего загрузчика этого самого RDF, вы мне не поверите. Хотя схема для хранения RDF там немудрячая --- три таблички и десяток индексов. Хорошо, что это системного уровня вещь, этот загрузчик в итоге один раз для всех разработчиков написан и поставляется вместе с сервером. В таком виде эта работа имеет смысл. А ведь никто из апп-девелоперов для своих специфических данных за свои деньги такой фокус повторять не будет, тем более что у него не три таблички будет. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 01:51 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
ApexТоже самое с сетью, пропускная способность интерконнекта увеличивается пропорционально кол-ву узлов в кластере, поэтому узким местом не является.Ну тогда я вам завидую, у нас клиенты, видимо, победнее будут. Старые 16-портовые 10GbE c неполными матрицами внутри и вертись как хочешь, циски SFS будут когда морально устареют :) А то и вообще 2xGbE на узел. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 02:07 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
iv_an_ruApexТоже самое с сетью, пропускная способность интерконнекта увеличивается пропорционально кол-ву узлов в кластере, поэтому узким местом не является.Ну тогда я вам завидую, у нас клиенты, видимо, победнее будут. Старые 16-портовые 10GbE c неполными матрицами внутри и вертись как хочешь, циски SFS будут когда морально устареют :) А то и вообще 2xGbE на узел. А я то тут при чем?:) У Терадаты просто своя технология для интерконнекта - BYNET . ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 04:08 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Apexiv_an_ruпропущено... Ну тогда я вам завидую, у нас клиенты, видимо, победнее будут. Старые 16-портовые 10GbE c неполными матрицами внутри и вертись как хочешь, циски SFS будут когда морально устареют :) А то и вообще 2xGbE на узел. А я то тут при чем?:) У Терадаты просто своя технология для интерконнекта - BYNET .Вот это всё и называется "есть деньги". Например, на выделенные машины с выделенной проприентарной сеткой. А у нас обычно большая база оказывается маленьким довеском к офигенно большому приложению, или сопряжением между несколькими такими. Вот с барского плеча сколько-то узлов, вот можно на них отожрать до стольки-то гигов ОЗу и дисков --- и крутись как хочешь. Ещё и сеть при этом вовсе не пустая. А зато у нас потом на бенчмарках TPH/$ зашкаливает. В числителе транзакции есть, в знаменателе денег нет :) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 15:55 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
Круто. А чего не пиаретесь? Я об этом Виртуозо знаю только потому что вы сказали:) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 03.03.2012, 22:35 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
ApexКруто. А чего не пиаретесь? Я об этом Виртуозо знаю только потому что вы сказали:)Как пиариться-то? СУБД с виртуальной схемой --- продукт довольно специфический, СУБД с поддержкой RDF --- тоже, СУБД с поддержкой и того и другого --- ну тут вы наш клиент вообще без вариантов. А расширять такой рынок тяжело, запчасти для крематориев рекламе не поддаются . Оно как-то само рекламируется. Заходит потенциальная жертва за окологосударственными данными на http://services.data.gov/sparql , видит по заголовку страницы, на чём там внутренности крутятся. Жертва заходит за выжимками из Википедии на http://dbpedia.org/sparql , там тот же движок, только другая версия. Жертва интересуется фейсбуком, а фейсбуковый товарищ между тем на конференции извиняется за неполную функциональность Facebook's Open Graph Protocol, цитирую: ""we're sort of faking the semantic web here; there's no Virtuoso behind this". И никто не переспрашивает, что за виртуоза такая, потому что Virtuoso Open Source не просто поставляется с большинством дистрибутов линукса, а в последних KDE на ней крутится semantic desktop. Всё, тупик --- у каждого хоть как-то интересующегося semantic web, linked data и прочими data federation на машине уже стоит копия. В итоге мы в замечательных отношениях со всеми крупными вендорами --- мы им не конкуренты, они нам. У нас с ними общие исследовательские проекты, общие работы по стандартизации, общие клиенты. Ну и по мелочам --- скажем, мы ODBC/UDBC/IODBC драйверы пишем для всех без разбору. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.03.2012, 00:02 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
iv_an_ruТерадатовцы себе не враги и приняли совершенно верное решение --- простейший неконфигурируемый интерефейс. Выжали равномерные 32 бита из строки, пережали в 16-битный номер корзинки, чтоб уменьшить размер таблиц поиска основного и резервного AMP по номеру корзинки, и всё. Просто и надёжно, как затвор калаша. С калашом - ну просто отличное сравнение. Да неискушенно, тупо, просто и надежно. Но ведь работает и не один десяток лет. Завтра иду стрелять и как раз из калаша. авторНаписано к тому, что изменение каждого из этих параметров даёт нелинейный эффект, и было бы удивительно, если бы их произведение случайно дало "ровно в два раза". Разве что у вас все данные укладываются в ОЗУ и сеть между узлами никогда-никогда не оказывается узким местом. Тогда я рад за вас и за ваш богатый бюджет. Ну или наоборот, все данные безнадёжно холодные на дисках, процессоры медленные и малочисленные, а сеть не оказывается узким местом просто потому, что древние ящики не в состоянии её нормально загрузить. Тогда у вас черепаха тоже поползёт ровно в два раза быстрее. Но согласитесь --- большинство систем в эти крайности не впадают. 1) Меж-узловую сеть в Терадате, он же Bynet, повесить нереально из моего опыта. Затырком может быть диск, CPU, нехватка AWT, но не bynet. 2) "Ровно в два раза" - скорее маркетиновый лозунг. При удвоении кластера может быть в и в 5 раз, зависит от типа запросов (single AMP vs all-AMP retrieve). Как пару лет назад в том игривом календаре с голыми студентками - " Владимир Владимирович - Как насчет третьего раза?" На самом деле масштабируемость можно понимать и в таком ключе. Есть система из N узлов. Есть некий тест где M-одновременных пользователей выполняют некое кол-во запросов. Теоретически если 10M-одновременных пользователей пускают такое же кол-во запросов/per user (исключаю кэширование) время выполнения должно возрасти в 10 раз. В реальности оно может быть 3X-4X. Т.е. зависимость не линейная совершенно. ИМХО - зависит от типа запросов. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.03.2012, 08:58 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
авторЧто в Teradata сделано иначе Для того чтобы решить что лучше надо знать что должна делать СУБД. Надо всегда помнить кто является прародителем Терадаты и для каких целей создавалась данная система. Терадата имеет много интересных моментов и технических решений позволяющих иметь постоянный доступ к данным, даже в случае сложных нарушений в системе.Система типа 1+1 например.(ну или 4+4, 12+12, 24+24 и т.д. ) Терадата рассчитана для исторического хранения данных, в больших обьёмах и на быстрый возврат большого количества данных. Построение всеразличных аналитических пересчётов или составление прогнозирования. По всем бенчнмаркам которые недавно проводили для Водафона и Австрия Телекома Тердата & Oracle работает в 30-45% быстрее при обработке сложных запросов для среднестатистических таблиц с 12-15 млрд записей. По поводу масштабируемости и раcширения хардверной системы тоже не надо быть слишком оптимистичным. Системы устаревают и поддержка для старых систем заканчивается.И если 4 года назад уже были закуплены 5540, то сейчас с ними уже никакое добавление нод практически нереально.13.10 на них не поставишь, а на 12 версию посаппорт заканчивается в след.году.(ЕМНИП) Такая же кухня с дисковыми полями.Некоторые ещё можно кое как заюзать для 6650, но есть свои заморочки. Т.е. покупка нового железа типа 6650, 6680, 6690. Ну и на мой взгляд самый главный плюс Терадаты - это уже готовые логические модели данных под различные индустрии.Естественно их кастомизируют под конкретные проекты, но костяк есть уже на старте. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 04.05.2012, 12:41 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
YURKAСистемы устаревают и поддержка для старых систем заканчивается.И если 4 года назад уже были закуплены 5540, то сейчас с ними уже никакое добавление нод практически нереально.13.10 на них не поставишь, а на 12 версию посаппорт заканчивается в след.году.(ЕМНИП) Юра, привет. Это Саша из Сберовского проекта, помнишь такого?:) Тут ты безусловно прав, однако это все равно лучше, чем то, что творит Оракл, у которого Exadata разных поколений в принципе не работают вместе. Достаточно вспомнить как Оракл красиво кинул заказчиков первых версий Database Machine. Терадата хотя бы между соседними поколениями совместимость дает. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.05.2012, 00:22 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
вспомним молодостьСпасибо Павел, за ваш ответ. В моем случае я ищу более глубокое описание ключевых архитектурных отличий. Мне как специалисту по ораклу интересно какие есть штуки лучше, чем у оракла. ... в таких случаях вопросы на форумах не задают. вы хотите, чтобы кто-то разжевал и проанализировал для ваших задач чем лучше одна субд от другой, при этом задачи знаете только вы, и при этом хотите глубокое описание. читайте документацию терадаты, если вам нужны только архитектурные принципы, вам достаточно будет почитать первые главы из их документации. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.05.2012, 00:32 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
ApexYURKAСистемы устаревают и поддержка для старых систем заканчивается.И если 4 года назад уже были закуплены 5540, то сейчас с ними уже никакое добавление нод практически нереально.13.10 на них не поставишь, а на 12 версию посаппорт заканчивается в след.году.(ЕМНИП) Юра, привет. Это Саша из Сберовского проекта, помнишь такого?:) Тут ты безусловно прав, однако это все равно лучше, чем то, что творит Оракл, у которого Exadata разных поколений в принципе не работают вместе. Достаточно вспомнить как Оракл красиво кинул заказчиков первых версий Database Machine. Терадата хотя бы между соседними поколениями совместимость дает.Это неправда. У Oracle много заказчиков, которые используют Exadata V2 и Exadata V3 (X2-2 и X2-8) совместно. По поводу V1 это тоже возможно, но есть ряд ограничений - в частности, связанные со скоростью infiniband - они разные. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 08.05.2012, 16:54 |
|
||
|
Teradata (vs Exadata)
|
|||
|---|---|---|---|
|
#18+
ApexYURKAСистемы устаревают и поддержка для старых систем заканчивается.И если 4 года назад уже были закуплены 5540, то сейчас с ними уже никакое добавление нод практически нереально.13.10 на них не поставишь, а на 12 версию посаппорт заканчивается в след.году.(ЕМНИП) Юра, привет. Это Саша из Сберовского проекта, помнишь такого?:) Тут ты безусловно прав, однако это все равно лучше, чем то, что творит Оракл, у которого Exadata разных поколений в принципе не работают вместе. Достаточно вспомнить как Оракл красиво кинул заказчиков первых версий Database Machine. Терадата хотя бы между соседними поколениями совместимость дает. Я как раз сейчас также в сбере на проекте edw работаю :) Похоже все должны через это пройти ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 06.06.2012, 19:21 |
|
||
|
|

start [/forum/topic.php?fid=56&msg=37690303&tid=2015343]: |
0ms |
get settings: |
8ms |
get forum list: |
12ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
157ms |
get topic data: |
12ms |
get forum data: |
3ms |
get page messages: |
66ms |
get tp. blocked users: |
2ms |
| others: | 13ms |
| total: | 281ms |

| 0 / 0 |

Извините, этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
... ля, ля, ля ...