|
|
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Привет! У меня есть 2 таблицы, одна на 300млн. строк (ТАБ1) и вторая на 20млн. строк (ТАБ2) Я написал команду по нахождению совпадений: select * from tab1, tab2 where tab1 = tab2 В обеих таблицах по одной колонке с данными типа "hC98hvW374hoEd7V8d", при создании таблиц в настройках ставил маркеры NN и Binar, формат VARCHAR (100). Сравнение запустилось, но вот уже прошло больше 1 часа, но процесс не заканчивается, и хз когда закончится. И при чем ресурсы не затрачиваются, ОЗУ свободно ещё 30гб, проц холодный, нагрузка 10-17%, 2 gtx1080ti вообще прохлаждаются на 0% загрузки. В общем как ускорить процесс, может можно как-то настроить чтобы ресурсов больше затрачивалось? Может есть у кого какие идеи? Потому что скорость слишком мала, файл на 20млн. строк тестовый, закинул посмотреть найдет ли три заранее спрятанных совпадения. А так на очереди файл под 1 МЛРД. строк, но с такой скоростью пока что это не имеет смысла. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 10:19 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegar2 gtx1080ti вообще прохлаждаются на 0% загрузки GPU-то тут при чём? mordegarпроц холодный, нагрузка 10-17% Суммарно по ядрам? Запрос-то однопоточный. mordegarОЗУ свободно ещё 30гб А базе в конфиге объяснили, что ей можно этим пользоваться? Ну и что важнее - индексы-то есть? mysql умеет только nested loops для join, что без индекса вечности подобно, на каждую строку левой таблицы перебирать всю правую таблицу. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 10:27 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Melkij на каждую строку левой таблицы перебирать всю правую таблицу. Мне нужно чтобы каждую строку из файла 20млн. строк проверил на совпадения в файле с 300 млн. строк. Как меня уверяли, что база sql легко с этим справится за пару минут, и ничего там настраивать не надо особо, что такое ключи и прочее я хз, мне сказали поставить флажки и выбрать варчар (100), дальше типа по команде пойдет сравнение с богоподобной скоростью. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 10:36 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
не ключи а индексы ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 10:37 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
как и куда эти индексы ставить в workbenchе? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 10:47 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarкак и куда эти индексы ставить в workbenchе? создали таблицы, залили данные, прописали индексы именно в таком порядке заливать в таблицу с индексами в разы дольше ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 10:55 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Для обеих таблиц нужно делать индексы? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 11:00 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarЯ написал команду по нахождению совпадений: Код: sql 1. 2. Должно быть Код: sql 1. 2. mordegarДля обеих таблиц нужно делать индексы?Конечно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 11:01 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Akina, а индексы уникальные ставить? У меня все значения в строках уникальные, в рамках одной таблицы совпадений нет. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 11:09 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarиндексы уникальные ставить?Если модель требует уникальности - да, иначе лучше не надо... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 12:12 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarДля обеих таблиц нужно делать индексы?я бы сделал только у большей таблицы. И в запросе меньшую таблицу сделал ведущей, а большую ведомой. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 12:50 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
miksoftя бы сделал только у большей таблицы. И в запросе меньшую таблицу сделал ведущей, а большую ведомой. А это как сделать, я имею ввиду ведущую или ведомую. Большую таблицу поставил на процесс индексирования, вот уже час идет. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 12:59 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegar , а каково ожидаемое количество записей из этого запроса? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 13:31 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Akina, ровно 3, специально их туда внедрил для теста. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 13:58 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Пока ещё идет индексация большой таблицы. В принципе мне без разницы каким способом все это делать. Мною на другом ресурсе был поставлен вопрос о том, с помощью каких ресурсов можно сделать перебор на совпадения в текстовых файлах от 30 до 100 Гб веса, мне посоветовали SQL, поэтому данный способ и проверяю. Мне в целом и Excel подошел бы по задаче, но у него лимит 1 млн. строк, это где то 40Мб. Если с sql не получится, даже хз какие ещё варианты использовать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 14:05 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Т.е. для ясности, у меня есть файл с 300 млн. значений - базовые, т.е. они в стоке будут всегда. А есть постоянно пополняющийся файл, он может в конечном виде и 1 и 2 млрд. значений иметь, но это не суть, главное своевременно, можно даже по частям, эти значения проверять на совпадения в стоковом файле. И вроде задача то не самая сложная по структуре, но как на практике оказалось, не то что мощностей не хватает, а именно искусственные везде какие-то лимиты, ограничения, и вот так просто не получается. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 14:11 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarmiksoftя бы сделал только у большей таблицы. И в запросе меньшую таблицу сделал ведущей, а большую ведомой. А это как сделать, я имею ввиду ведущую или ведомую. Большую таблицу поставил на процесс индексирования, вот уже час идет.Если индекс будет только один, то оптимизатор сам определит таблицу с индексом в ведомые. Проверить можно в плане запроса. Если план оптимизатора не устраивает, то порядок соединения таблиц можно указать в запросе явно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 14:15 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarВ обеих таблицах по одной колонке с данными типа "hC98hvW374hoEd7V8d"Это действительные данные, или некая хитрожопая контрольная сумма? В теории для такого типа запроса на таких объёмах данных можно создать дополнительное хранимое вычисляемое поле хэша, имеющего целочисленный тип, его проиндексировать, и по нему связывать (вернее, связывать по hash(t1f1)=hash(t2.f2) and t1.f1=t2.f2 ). Но вот незадача - в MySQL есть либо CRC32, чего маловато на таких объёмах, либо MD5, который, наоборот, великоват. А CRC64, который тут был бы в самый раз - увы... хотя никто не запрещает взять, к примеру, первую (или вторую) половину MD5 и преобразовать его в BIGINT. Вероятность коллизии будет достаточно низкой. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 14:23 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Akina, Это действительные данные ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 14:30 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Приветствую. Если исходная информация - текстовые файлы, и проверку надо сделать один раз, возможно, окажется проще: cat file1 file2 | sort | uniq -d ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 22:10 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
NIK.2017Приветствую. Если исходная информация - текстовые файлы, и проверку надо сделать один раз, возможно, окажется проще: cat file1 file2 | sort | uniq -dСоединять нужно по одному полю, а не по всей строке, насколько я понял задачу. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 22:25 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
miksoftСоединять нужно по одному полю, а не по всей строке, насколько я понял задачу. Да, но пока жду что получится с индексом, уже 12 часов пыхтит, вроде недолго осталось но места конечно он мне ппц как занял в ходе данной процедуры. Завтра отпишусь, что получится. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 23:46 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Если правильно понял, каждое поле имеет уникальный индекс (ключевое?), а значит, в принципе, вполне может сработать сравнение файлов, состоящих из одного этого поля. Другой вопрос - алгоритм. Каждое с каждым сравнивать - реально долго. Если же строки файлов заранее отсортированы, тогда можно составить довольно простой алгоритм в один проход, который прочитает по первой строке из каждого файла, сравнит значения, а далее будет читать и сравнивать строки из того файла, где значение оказалось меньше. При равенстве - вывод значения. Далее прочитать по строчке и пошли по кругу, пока какой-то файл не закончится. Тут, скорее, вопрос реализации. Возможно СУБД не самое подходящее средство для такой задачи, хотя, отсортированную выгрузку по каждому полю вполне можно сделать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 14.09.2018, 23:54 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegar, Покажите DDL таблиц и индекса, который пытаетесь создать. Если поле для соединения уникально, то лучше было бы сначала его сделать первичным ключом, а потом данные в таблицу заливать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 00:32 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarВ обеих таблицах по одной колонке с данными типа "hC98hvW374hoEd7V8d", при создании таблиц в настройках ставил маркеры NN и Binar, формат VARCHAR (100). а они что, разных размеров идут? и вы конечно же делаете индекс по всей длине? там 10 чаров хватит ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 02:18 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Сравнение закончилось? Сколько шло? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 05:45 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Все, индексы поставил, теперь сравнение проходит за 7-8 минут, спасибо что подсказали!) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 12:12 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
А вот ещё вопрос такой, этот процесс сам по себе не жрет у меня ресурсы, легкая загрузка цп да и только. А можно как то 2 (или больше) таких процесса запараллелить? Или для этого нужен другой локальный сервер, и как следствие другая ОС? Просто настроек по увеличению производительности процесса в му.ini или в самом Workbenche я увы не нашел. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 12:57 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarА вот ещё вопрос такой, этот процесс сам по себе не жрет у меня ресурсы, легкая загрузка цп да и только.Если содержимое таблиц и индексов полностью в кэше, то должно быть полностью занято одно ядро. MySQL не умеет параллелить выполнение одного запроса на несколько ядер. Но можно это имитировать - выполнить несколько запросов в разных подключениях. Чтобы можно было посоветовать что-то по ускорению, покажите DDL обеих таблиц (включая индексы) и запрос. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 13:07 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
miksoft, CREATE TABLE `rustts` ( `rustts` varchar(100) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL, KEY `idxrustts` (`rustts`) ) ENGINE=MyISAM DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_unicode_ci Это таблица на 300млн. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 13:46 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
И такая же на 20 млн. CREATE TABLE `uss`.`biground` ( `biground` VARCHAR(100) BINARY NOT NULL) ENGINE = MyISAM; ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 13:52 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
iNDEX: Type BTREE Allows NULL Yes Unique No ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 13:55 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegar, Т.е. в каждой из таблиц по одному полю? Тогда имеет смысл попробовать 21675163 И почему одно поле BINARY, а другое utf8mb4 ? Если в данных только латинские буквы и цифры, то имеет смысл использовать тип VARBINARY. А если они постоянной длины, то даже BINARY (отдельный тип данных, а не модификатор varchar). ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:10 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
miksoft, Да по одному полю в таблице, просто там написано: "Если исходная информация - текстовые файлы, и проверку надо сделать один раз", вот про один раз я не понял, я буду делать много таких проверок, просто будут заменяться данные в таблице где 20 млн. строк. Форматы одинаковые, просто я из разных мест скопировал. Ок, предложенный метод испробую. Длинна данных разная, но состоят только из лат. букв (мелких и заглавных) и цифр. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:20 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
В целом конечно, конкретно для моих задач, результат проверки таблиц 20млн. на 300 млн. = 7-8 минут, т.е. 2-3 млн. в минуту это нормально. Просто было интересно, можно ли задействовать имеющиеся ресурсы видеокарт из под винды, чтобы повысить производительность. А то, почитаешь перед покупкой сколько Терафлопс выдают новоиспеченные модели карт, а на деле все эти мощности хз как использовать, именно для полезной нагрузки. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:29 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Я бы еще попробовал данные положить в InnoDB-таблицу и сделать из единственного поля первичный ключ, а других индексов не делать. Кроме того, если большая таблица не перезаливается от раза к разу, то имеет смысл собрать по ней статистику. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:31 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
miksoft, Ну InnoDB я пытался в самом начале сделать, но там постоянно мне какие-то ошибки выдавал в некоторых строках при импорте записей в таблицу, а если получалось игнорировать ошибки в строках, workbench зависал намертво. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:35 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarПросто было интересно, можно ли задействовать имеющиеся ресурсы видеокарт из под винды, чтобы повысить производительность. А то, почитаешь перед покупкой сколько Терафлопс выдают новоиспеченные модели карт, а на деле все эти мощности хз как использовать, именно для полезной нагрузки.Может, это и имеет смысл с точки зрения производительности, но это уже точно не средствами СУБД делается. Ищите по словам CUDA, OpenCL. Если готового продукта под ваши цели не найдется, то придется программировать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:36 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarmiksoft, Ну InnoDB я пытался в самом начале сделать, но там постоянно мне какие-то ошибки выдавал в некоторых строках при импорте записей в таблицу, а если получалось игнорировать ошибки в строках, workbench зависал намертво.Ошибки про дубли? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:36 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
miksoftОшибки про дубли? 1262 it contained more data than there were input columns - вот это было и ещё 1062. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:42 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
miksoftmordegarПросто было интересно, можно ли задействовать имеющиеся ресурсы видеокарт из под винды, чтобы повысить производительность. А то, почитаешь перед покупкой сколько Терафлопс выдают новоиспеченные модели карт, а на деле все эти мощности хз как использовать, именно для полезной нагрузки.Может, это и имеет смысл с точки зрения производительности, но это уже точно не средствами СУБД делается. Ищите по словам CUDA, OpenCL. Если готового продукта под ваши цели не найдется, то придется программировать. как же не средствами БД? распараллелить свои поиски асинхронно может только сама бд... кто же ещё снаружи за неё там искать будет ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:42 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
не увидели? полудухmordegarВ обеих таблицах по одной колонке с данными типа "hC98hvW374hoEd7V8d", при создании таблиц в настройках ставил маркеры NN и Binar, формат VARCHAR (100). а они что, разных размеров идут? и вы конечно же делаете индекс по всей длине? там 10 чаров хватит ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:42 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
полудух, Да, разных размеров ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:47 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Т.е. получается если в VirtualBox включить такой же сервер, и поставить ту же задачу, параллельно на реальной винде будет такой же процесс висеть, они оба будут нагружать одно и то же ядро? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:56 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
полудухmiksoftпропущено... Может, это и имеет смысл с точки зрения производительности, но это уже точно не средствами СУБД делается. Ищите по словам CUDA, OpenCL. Если готового продукта под ваши цели не найдется, то придется программировать. как же не средствами БД? распараллелить свои поиски асинхронно может только сама бд... кто же ещё снаружи за неё там искать будет Ну в смысле не классические РСУБД (Oracle, MS SQL, MySQL и т.п.) - они не умеют GPU использовать. А специализированные, которые умеют, мне неизвестны. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 14:58 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
mordegarТ.е. получается если в VirtualBox включить такой же сервер, и поставить ту же задачу, параллельно на реальной винде будет такой же процесс висеть, они оба будут нагружать одно и то же ядро?Зачем VirtualBox ? Сделайте столько подключений к MySQL, сколько ядер, и в каждом по запросу запускайте. Или даже больше, тут уже смотреть надо по реальной загрузке. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 15:12 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
miksoft, аа, точно, ок! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 15.09.2018, 15:14 |
|
||
|
Как ускорить сравнение огромных таблиц
|
|||
|---|---|---|---|
|
#18+
Вы бы рассказали, чуть побольше об исходной задаче. - В каком виде получаете данные. - У Вас две таблицы. Они обе постоянные, или одна меняется ? - После того, как нашли дубли, какая-то еще обработка данных требуется ? - Под какой ОС ? Просто если Вы заливаете данные в базу данных только ради того, что бы один раз найти дубли, это выглядит несколько странным, так как подготовительные этапы будут занимать очень много времени... Задача выглядит не как счетная, вся нагрузка будет по вводу-выводу... Тут нужны не процессоры, а памяти побольше и SSD. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 17.09.2018, 09:08 |
|
||
|
|

start [/forum/topic.php?all=1&fid=47&tid=1829614]: |
0ms |
get settings: |
10ms |
get forum list: |
12ms |
check forum access: |
3ms |
check topic access: |
3ms |
track hit: |
36ms |
get topic data: |
11ms |
get forum data: |
2ms |
get page messages: |
69ms |
get tp. blocked users: |
1ms |
| others: | 14ms |
| total: | 161ms |

| 0 / 0 |

Извините, этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
... ля, ля, ля ...