|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
Задача: данные с устройств записываются в sql server каждые 5 сек. Эти данные могу быть с одинаковыми значениями идти. Хотелось бы отправлять эти данные в поток kafka, обрабатывать их и ложить в Mongodb уже данные без одинаковых значений SQL Пример: авторDate Value 07.02.2018 12:11:10 13.12 07.02.2018 12:11:15 13.12 07.02.2018 12:11:20 13.12 07.02.2018 12:11:25 16.28 07.02.2018 12:11:25 16.28 07.02.2018 12:11:25 16.28 => MongoDB: 07.02.2018 12:11:10 13.12 07.02.2018 12:11:25 16.28 Подскажите в какую сторону копать? ... |
|||
:
Нравится:
Не нравится:
|
|||
07.02.2018, 12:13 |
|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
какова допустимая задержка между актуальностью данных в сиквеле и монге? для начала почитайте про сопряжение сиквела и кафки подходит ли вам. ... |
|||
:
Нравится:
Не нравится:
|
|||
07.02.2018, 13:23 |
|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
Дедушкакакова допустимая задержка между актуальностью данных в сиквеле и монге? для начала почитайте про сопряжение сиквела и кафки подходит ли вам. Да подходит, сейчас уже это работает и очень хорошо. Задержка не более 3 сек. Мне бы понять каким способом делать агрегацию, возможно с помощью спарка в отдельную таблицу sql и её уже посылать в поток, либо есть какие-то возможности у кафки, кто что знает? ... |
|||
:
Нравится:
Не нравится:
|
|||
07.02.2018, 13:58 |
|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
mr_max, логично было бы кафку перед сиквелем поставить и читать с нее как в сиквель, так и в монгу. перед монгой поставить аггрегатор, либо на базе кафка стримз, либо какой другой стрим процессинг. ... |
|||
:
Нравится:
Не нравится:
|
|||
08.02.2018, 00:11 |
|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
может просто индекс создать в сиквеле? с опцией: IGNORE_DUP_KEY = ON ... |
|||
:
Нравится:
Не нравится:
|
|||
08.02.2018, 12:04 |
|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
Критикможет просто индекс создать в сиквеле? с опцией: IGNORE_DUP_KEY = ON в SQL хотят, чтобы хранилась вся картина. И там не совсем одинаковые значения. там дробные значения 5.565 5.567 5.568 и такие вот значения можно было бы схлопнуть. ... |
|||
:
Нравится:
Не нравится:
|
|||
08.02.2018, 12:07 |
|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
Дедушкасопряжение сиквела и кафки подходит ли вам.mr_maxДа подходит, сейчас уже это работает и очень хорошо.тогда вам выше уже посоветовали... смотрите в сторону кафка стримс ... |
|||
:
Нравится:
Не нравится:
|
|||
08.02.2018, 12:57 |
|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
Дедушка, Но у меня уже кафка стримс стоит, которая копирует тупо данные из одной базы в другую. Теперь как настроить стрим на аггрегацию, так как я предложили или есть более изящный способ? ... |
|||
:
Нравится:
Не нравится:
|
|||
08.02.2018, 13:35 |
|
Агрегирование данных sql через kafka в mongodb
|
|||
---|---|---|---|
#18+
mr_max, как вариант, можно рассмотреть Microsoft StreamInsight, раз у вас там все равно есть MS SQL https://msdn.microsoft.com/ru-ru/library/ee391416(v=sql.111).aspx ... |
|||
:
Нравится:
Не нравится:
|
|||
10.02.2018, 18:03 |
|
|
start [/forum/topic.php?fid=48&msg=39598851&tid=1856639]: |
0ms |
get settings: |
11ms |
get forum list: |
16ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
180ms |
get topic data: |
10ms |
get forum data: |
3ms |
get page messages: |
50ms |
get tp. blocked users: |
1ms |
others: | 235ms |
total: | 514ms |
0 / 0 |