Новые сообщения [новые:0]
Дайджест
Горячие темы
Избранное [новые:0]
Форумы
Пользователи
Статистика
Статистика нагрузки
Мод. лог
Поиск
|
07.02.2018, 12:13
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
Задача: данные с устройств записываются в sql server каждые 5 сек. Эти данные могу быть с одинаковыми значениями идти. Хотелось бы отправлять эти данные в поток kafka, обрабатывать их и ложить в Mongodb уже данные без одинаковых значений SQL Пример: авторDate Value 07.02.2018 12:11:10 13.12 07.02.2018 12:11:15 13.12 07.02.2018 12:11:20 13.12 07.02.2018 12:11:25 16.28 07.02.2018 12:11:25 16.28 07.02.2018 12:11:25 16.28 => MongoDB: 07.02.2018 12:11:10 13.12 07.02.2018 12:11:25 16.28 Подскажите в какую сторону копать? ... |
|||
:
Нравится:
Не нравится:
|
|||
|
07.02.2018, 13:23
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
какова допустимая задержка между актуальностью данных в сиквеле и монге? для начала почитайте про сопряжение сиквела и кафки подходит ли вам. ... |
|||
:
Нравится:
Не нравится:
|
|||
|
07.02.2018, 13:58
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
Дедушкакакова допустимая задержка между актуальностью данных в сиквеле и монге? для начала почитайте про сопряжение сиквела и кафки подходит ли вам. Да подходит, сейчас уже это работает и очень хорошо. Задержка не более 3 сек. Мне бы понять каким способом делать агрегацию, возможно с помощью спарка в отдельную таблицу sql и её уже посылать в поток, либо есть какие-то возможности у кафки, кто что знает? ... |
|||
:
Нравится:
Не нравится:
|
|||
|
08.02.2018, 00:11
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
mr_max, логично было бы кафку перед сиквелем поставить и читать с нее как в сиквель, так и в монгу. перед монгой поставить аггрегатор, либо на базе кафка стримз, либо какой другой стрим процессинг. ... |
|||
:
Нравится:
Не нравится:
|
|||
|
08.02.2018, 12:04
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
может просто индекс создать в сиквеле? с опцией: IGNORE_DUP_KEY = ON ... |
|||
:
Нравится:
Не нравится:
|
|||
|
08.02.2018, 12:07
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
Критикможет просто индекс создать в сиквеле? с опцией: IGNORE_DUP_KEY = ON в SQL хотят, чтобы хранилась вся картина. И там не совсем одинаковые значения. там дробные значения 5.565 5.567 5.568 и такие вот значения можно было бы схлопнуть. ... |
|||
:
Нравится:
Не нравится:
|
|||
|
08.02.2018, 12:57
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
Дедушкасопряжение сиквела и кафки подходит ли вам.mr_maxДа подходит, сейчас уже это работает и очень хорошо.тогда вам выше уже посоветовали... смотрите в сторону кафка стримс ... |
|||
:
Нравится:
Не нравится:
|
|||
|
08.02.2018, 13:35
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
Дедушка, Но у меня уже кафка стримс стоит, которая копирует тупо данные из одной базы в другую. Теперь как настроить стрим на аггрегацию, так как я предложили или есть более изящный способ? ... |
|||
:
Нравится:
Не нравится:
|
|||
|
10.02.2018, 18:03
|
|||
---|---|---|---|
Агрегирование данных sql через kafka в mongodb |
|||
#18+
mr_max, как вариант, можно рассмотреть Microsoft StreamInsight, раз у вас там все равно есть MS SQL https://msdn.microsoft.com/ru-ru/library/ee391416(v=sql.111).aspx ... |
|||
:
Нравится:
Не нравится:
|
|||
|
|
start [/forum/topic.php?fid=48&mobile=1&tid=1856639]: |
0ms |
get settings: |
11ms |
get forum list: |
11ms |
check forum access: |
3ms |
check topic access: |
3ms |
track hit: |
58ms |
get topic data: |
12ms |
get forum data: |
3ms |
get page messages: |
45ms |
get tp. blocked users: |
2ms |
others: | 10ms |
total: | 158ms |
0 / 0 |