|
|
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
Простые БД, для хранения небольшого количества текстовой информации, "проектировал" )). Прошу совета и помощи: выбор СУБД (возможно и ОС) и приблизительной структуры. Цель: необходимо хранить уникальные пары [BIGINT,INT]. Их количество оченьбольшое более 500 000 000 уже, а дальше будет больше (для анализа сигналов...). Спасибо. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 10:17 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
dimajayоченьбольшое более 500 000 000 Это количество, конечно, большое, но не очень. Та СУБД, которую ты знаешь не справилась?.. Posted via ActualForum NNTP Server 1.5 ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 12:27 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
Dimitry Sibiryakov, MSSQL. C#. Данные находятся в файлах (файлов больше 3000). Размер файлов более 500 Мб каждый. Из файлов я выбираю строку, конвертирую и делаю инсерт в БД пары значений. Работает в 32 потока. Мне кажется, что со временем загрузка медленее. В таблице стоит юник констраинтс (чтобы не было повторов). Процесс загрузки получается долгий, предположительно более 2 суток. Может можно что-то делать по другому, дабы ускорить процесс. Направьтие, пож. Буду разбираться. Понимаю что моих поверхностных знаний мало, но куда углубляться не знаюю может сразу грузить не одну пару а несколько? Спасибо ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 13:17 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
dimajayMSSQL. C#. Направьтие, пож. Направляю: http://www.sql.ru/forum/actualtopics.aspx?bid=1 Posted via ActualForum NNTP Server 1.5 ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 13:30 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
На каждую пару - отдельный инсерт ? Или собирается длинная строка на сколько тыщ пар ? Перегонять ваши загадочные бинарники в цсв файл (допись в конец всякий раз новой строчки), файл инсертить одним чохом штатными средствами. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 13:56 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
dimajay, попробуйте секционирование для вашей большой таблицы ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 15:09 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
П-ЛНа каждую пару - отдельный инсерт ? Или собирается длинная строка на сколько тыщ пар ? Перегонять ваши загадочные бинарники в цсв файл (допись в конец всякий раз новой строчки), файл инсертить одним чохом штатными средствами. Ситуация: файлов много, размер каждого за 500 Мб. (извините какими штатными средствами грузить много файлов?) Сотруктурой таблиц понятно. Гружу програмно - сишарп, на каждую пару свой инсерт. Потоков для загрузки 32. В таблице на два поля стоит юник. НО проблема: - грузится долго несколько дней будет. - внешне кажется что чем дальше тем медленнее грузится. Как можно ускорить процесс? Програмно и организационно (БД)? Вроде понятно? П.С: Уважаемый, Dimitry Sibiryakov , я обратился за помощью с конкретным вопросом, и указывать на ветку форума как-то дилетантски, если вы знаток - посоветуйте (а то бы ещё в гугл послали). Лучше с такими ответами не напрягайтесь. Как мог искал - не помогло. Надеюсь на живых людей. Работу делать надо уже, потому и пишу сюда. Спасибо. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 15:11 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
dimajayП-ЛНа каждую пару - отдельный инсерт ? Или собирается длинная строка на сколько тыщ пар ? Перегонять ваши загадочные бинарники в цсв файл (допись в конец всякий раз новой строчки), файл инсертить одним чохом штатными средствами. Ситуация: файлов много, размер каждого за 500 Мб. (извините какими штатными средствами грузить много файлов?) Сотруктурой таблиц понятно. Гружу програмно - сишарп, на каждую пару свой инсерт. Не хорошо... SqlBulkCopy смотрели? dimajayПотоков для загрузки 32. Секционирование таблицы Вам уже предложили. К этому еще можно добавить использование нескольких файловых групп, включая разнесение групп по разным физическим дискам... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 15:28 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
dimajay, Вам посоветовали использовать штатные средства MSSQL ( в первую очередь имхо SSIS, если файлов много). И в ветке "проектирование БД" это действительно оффтопик. Вам кроме проверки уникальности от этих данных что-то нужно? выборки, поиски? Если нет - может, Вам в сторону NoSQL посмотреть? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 15:43 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
Кот Матроскин, Спасибо, буду читать. Прошу прощения за резкость. Коль здесь офтопик, то куда? Как перенести. Я здесь впервой. Да знания мои неглубоки в SQL. Я системный программист (типа). c# sqlconnection sqlcommand. Быстро не будет, как я понял? SqlBulkCopy - спасибо, буду пробовать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 21:51 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
dimajayКоль здесь офтопик, то куда? Как перенести.Куда - вам написал Dimitry Sibiryakov, как- попросить модератора (или задавать новые вопросы уже там) dimajayКак можно ускорить процесс? Програмно и организационно (БД)? Основное - использовать средства массовой загрузки, например SqlBulkCopy, bulk insert. Будет быстро. dimajayизвините какими штатными средствами грузить много файлов?bcp или SSIS dimajayЦель: необходимо хранить уникальные пары [BIGINT,INT]. Их количество очень большое более 500 000 000 уже, а дальше будет большеНичего, у меня в час ненамного меньше, и не "пары" :-) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 05.04.2013, 22:32 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
dimajay, Можно для сравнения попробовать прогрузить все данные в Infobright (только обязательно попробуйте версию EE): сайт www.infobright.com Есть многопоточная загрузка бинарных файлов фиксированной длины, типа телекомовских CDR. Constraints устанавливать не надо, грузите все данные. Потом можно делать select distinct ... Удачи. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.04.2013, 01:31 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
lookatConstraints устанавливать не надо, грузите все данные. Потом можно делать select distinct ... Какая прекрасная система. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.04.2013, 11:28 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
lookatdimajay, Constraints устанавливать не надо, грузите все данные. Потом можно делать select distinct ... Удачи.Последнее слово - это изощренная издевка ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 09.04.2013, 19:25 |
|
||
|
БД для хранения большого количества бинарных данных
|
|||
|---|---|---|---|
|
#18+
Кот МатроскинlookatConstraints устанавливать не надо, грузите все данные. Потом можно делать select distinct ... Какая прекрасная система. и не одна :-) есть еще подходящие варианты ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.04.2013, 02:09 |
|
||
|
|

start [/forum/topic.php?fid=32&msg=38218443&tid=1541299]: |
0ms |
get settings: |
7ms |
get forum list: |
14ms |
check forum access: |
2ms |
check topic access: |
2ms |
track hit: |
50ms |
get topic data: |
7ms |
get forum data: |
2ms |
get page messages: |
47ms |
get tp. blocked users: |
1ms |
| others: | 198ms |
| total: | 330ms |

| 0 / 0 |
