|
|
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Всегда был уверен, что для распределения IO индексы и данные нужно хранить на разных лунах. Сам оракл так рекомендует. Однако вот читаю https://docs.oracle.com/cd/E18283_01/server.112/e16638/iodesign.htm Код: plsql 1. 2. 3. 4. 5. И ведь действительно, вначале читается индекс, потом уже читается данные. То есть запросы не мешают друг другу, даже помагают, если вместе с индексом в кэш попал еще нужный блок с данными. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 23.01.2017, 17:01 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
index_data если вместе с индексом в кэш попал еще нужный блок с данными. Как писали Лаконяне в ответ царю Македонскому - Если. В наше время когда все верят в черные коробочки с неонкой внутре этот совет (про хранение порознь) уже не в тренде. Сейчас модно умные хранилища, которые сами догадываются "Чё те надо". И фильтруют запросы сами на уровне блоков. А так палка о двух концах. С одной стороны разнося операции по разным каналам ты делаешь так, чтобы они не мешали друг другу. С другой стороны не давая раскидать одну большую операцию по куче каналов ты не даешь закончится ей быстрее. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 24.01.2017, 09:41 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
iopsы обеспечьте и кладите вместе. А по поводу Ваших рассуждений - Вы остальным сессиям запретите одновременно использовать ту же таблицу или индекс? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 24.01.2017, 09:42 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Несколько соображений: Если это, скажем разные LUN-ы в одной RAID-группе или вообще на одном диске, или одна ASM-группа, то с физической стороны выигрыша, конечно, нет. Но с другой стороны (здесь я больше ратую за отделение таблиц и индексов в разных ТП ): -- Во-первых, это красиво -- Во-вторых, если это физически разное железо -- пока одна сессия читает индекс, другая (уже прочитав индекс) обращается к таблице, не мешая первой -- ты можешь мониторить нагрузку на конкретный доступ к индексам/табличкам и, возможно, куда-то что-то попередвигать. Можно, конечно, это делать через SEGMENT_STATISTICS, но это таки не столь наглядно. -- можно задать разные параметров ТП, например, для индексов UNIFORM SIZE 1M, а для табличек 8M. Всякие там дефолтовые PCTFREE разные. Опять же, конечно, большую часть этого можно сделать и на уровне конкретных сегментов, но опять же, не столь красиво -- (хоть здесь и ругают этот подход) можно сделать разный размер блоков. Например, для больших широких табличек 16k, а индексов к ним -- 8k, а то и 2k -- некоторые считают, что для табличек нужно использовать RAID с защитой (зеркало или RAID-5, 6 и т.д), а для индексов хватит и страйпа. И/или вообще не бэкапить индексы. А в случае чего пересоздать. На мой взгляд, зависит от размера табличек и времени, которое можно себе позволить на пересоздание, но такие мысли я тоже слышал -- ... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 24.01.2017, 16:06 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Вячеслав ЛюбомудровНесколько соображений: Если это, скажем разные LUN-ы в одной RAID-группе или вообще на одном диске, или одна ASM-группа, то с физической стороны выигрыша, конечно, нет. Но с другой стороны (здесь я больше ратую за отделение таблиц и индексов в разных ТП ): -- Во-первых, это красиво -- Во-вторых, если это физически разное железо -- пока одна сессия читает индекс, другая (уже прочитав индекс) обращается к таблице, не мешая первой -- ты можешь мониторить нагрузку на конкретный доступ к индексам/табличкам и, возможно, куда-то что-то попередвигать. Можно, конечно, это делать через SEGMENT_STATISTICS, но это таки не столь наглядно. -- можно задать разные параметров ТП, например, для индексов UNIFORM SIZE 1M, а для табличек 8M. Всякие там дефолтовые PCTFREE разные. Опять же, конечно, большую часть этого можно сделать и на уровне конкретных сегментов, но опять же, не столь красиво -- (хоть здесь и ругают этот подход) можно сделать разный размер блоков. Например, для больших широких табличек 16k, а индексов к ним -- 8k, а то и 2k -- некоторые считают, что для табличек нужно использовать RAID с защитой (зеркало или RAID-5, 6 и т.д), а для индексов хватит и страйпа. И/или вообще не бэкапить индексы. А в случае чего пересоздать. На мой взгляд, зависит от размера табличек и времени, которое можно себе позволить на пересоздание, но такие мысли я тоже слышал -- ... Еще такой упрощенный вариант в пользу разделения. Есть 2 диска и 2 варианта размещения данных. Первый вариант - данные на диск 1, индекс на диск 2. Второй вариант - данные и индекс на страйп дисков 1+2. Продолжаем упрощение. 2 сессии читают одновременно данные и индекс. В первом варианте получаем два IO на диск 1 и два IO на диск 2. Во втором варианте все зависит от физического размещения. Если окажется, что данные индекса и данных находятся на одном физическом диске, тогда будет четыре IO на диск 1 и ноль IO на диск 0. То есть в таком случае запросы будут проходить дольше на разницу в 2 IO. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 24.01.2017, 16:32 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
index_dataВячеслав ЛюбомудровНесколько соображений: Если это, скажем разные LUN-ы в одной RAID-группе или вообще на одном диске, или одна ASM-группа, то с физической стороны выигрыша, конечно, нет. Но с другой стороны (здесь я больше ратую за отделение таблиц и индексов в разных ТП ): -- Во-первых, это красиво -- Во-вторых, если это физически разное железо -- пока одна сессия читает индекс, другая (уже прочитав индекс) обращается к таблице, не мешая первой -- ты можешь мониторить нагрузку на конкретный доступ к индексам/табличкам и, возможно, куда-то что-то попередвигать. Можно, конечно, это делать через SEGMENT_STATISTICS, но это таки не столь наглядно. -- можно задать разные параметров ТП, например, для индексов UNIFORM SIZE 1M, а для табличек 8M. Всякие там дефолтовые PCTFREE разные. Опять же, конечно, большую часть этого можно сделать и на уровне конкретных сегментов, но опять же, не столь красиво -- (хоть здесь и ругают этот подход) можно сделать разный размер блоков. Например, для больших широких табличек 16k, а индексов к ним -- 8k, а то и 2k -- некоторые считают, что для табличек нужно использовать RAID с защитой (зеркало или RAID-5, 6 и т.д), а для индексов хватит и страйпа. И/или вообще не бэкапить индексы. А в случае чего пересоздать. На мой взгляд, зависит от размера табличек и времени, которое можно себе позволить на пересоздание, но такие мысли я тоже слышал -- ... Еще такой упрощенный вариант в пользу разделения. Есть 2 диска и 2 варианта размещения данных. Первый вариант - данные на диск 1, индекс на диск 2. Второй вариант - данные и индекс на страйп дисков 1+2. Продолжаем упрощение. 2 сессии читают одновременно данные и индекс. В первом варианте получаем два IO на диск 1 и два IO на диск 2. Во втором варианте все зависит от физического размещения. Если окажется, что данные индекса и данных находятся на одном физическом диске, тогда будет четыре IO на диск 1 и ноль IO на диск 0. То есть в таком случае запросы будут проходить дольше на разницу в 2 IO.Да нет никакой пользы от разделения. Есть куча сессий которые читают таблицы, индексы через всякие RANGE/FULL/FAST FULL SCAN которые транслируются во всякие разные вызовы в зависимости от распределения данных в кэше, префетчей, batched, параметров инстанса и прочего. В итоге все выливается в серии синхроных-асинхронных вызовов и многоблочные-одноблочные чтения. Дальше в зависимости от IO scheduler и еще кучи всего все это идет в кэши массива, диски со своими префетчами и логиками. Поэтому можно конечно рассматривать случай когда к домашнему компу пару винтов подключили, поставили Oracle 8, запустили 2 сессии и стараемся одновременно читать индекс и таблицу, но это уже не актуально. Поэтому давно и делается SAME, что обеспечивает максимальное кол-во IOPS и максимальную производительность. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 02:20 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
wurduПоэтому давно и делается SAME, что обеспечивает максимальное кол-во IOPS и максимальную производительность. SAME тоже устарел, как и идея использования HDD (в любом виде) для чего либо иного, как log/archlog/backupset Установка SSD позволяет практически (в реальных применения) неограниченно повышать масштабируемость системы, при этом тебе прощаются очень, даже слишком многие огрехи сайзинга и тюнинга. Как ни крути, а 120-240 iops для HDD против 44000-80000 iops на SSD дают себя знать - поместить 360 HDD для достижения сопоставимой с 1-м SDD производительности по iops - никакими SAME не достичь в разумных пределах. Т.е. вполне достаточно поставить пару SSD и ограничиться RAID1 mirroring, вынеся копии логов и контролфайлы на HDD для самоуспокоения. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 02:31 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
index_dataВсегда был уверен, что для распределения IO индексы и данные нужно хранить на разных лунах. Сам оракл так рекомендует. это расхожий миф из каких-то очень древних книжек вида Стив Бобровски Oracle 7 для профессионалов 1994-го года издания. в те годы и о пользе третьей и выше форм нормализации заливали отрокам, многие неофиты верили гуру. да и сейчас поди верят, не имея возможности напрячь извилины и проверить догматы. в практической же плоскости это все от лукавого - добиться примерно одинаковой нагрузки по iops разнесенным на разные устройства отдельным тейблсбейсам никогда не удастся, это раз - два - не удастся даже угадать правильный их размер, в соотношении. не удастся сэкономить на восстановлении - перестройка индекса большой таблицы занимает неприемлимо большое время, а то и вовсе может не выполниться, если у тебя ограничения по TEMP. а учитывая откровенно рандомизированную (ибо в основе - HEAP) природу чтений и записей - единственно разумным является именно один большой тейблспейс на все схемы и объекты (не нужно париться с размерами), который действительно лежит на страйпах и зеркалах из всех имеющихся устройств. даже страйпы особо не нужны, оракл, как ни странно, довольно неплохо справляется с распределением сегментов по дейтафайлов сам, нагружая все диски более менее равномерно. а лимиты для приложений (защита от бешеной схемы с намерением съесть все место) отлично решаются квотами единственное место, где оправданы отдельные тейблспейсы - это разные размеры block size для разных типов данных, и, соотвественно, разные размеры кеш буферов под них. типовой случай - отделение горячих данных бизнес фактов за сегодян от справочников, и отдельно - уже исторических данных бизнес фактов от первых двух. но при наличии SSD даже это становится малоактуальным. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 02:43 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
dbpatch, на SSD индексы - не нужны. только место отъедают. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 02:52 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
dbpatchwurduПоэтому давно и делается SAME, что обеспечивает максимальное кол-во IOPS и максимальную производительность. SAME тоже устарел, как и идея использования HDD (в любом виде) для чего либо иного, как log/archlog/backupset Установка SSD позволяет практически (в реальных применения) неограниченно повышать масштабируемость системы, при этом тебе прощаются очень, даже слишком многие огрехи сайзинга и тюнинга. Как ни крути, а 120-240 iops для HDD против 44000-80000 iops на SSD дают себя знать - поместить 360 HDD для достижения сопоставимой с 1-м SDD производительности по iops - никакими SAME не достичь в разумных пределах. Т.е. вполне достаточно поставить пару SSD и ограничиться RAID1 mirroring, вынеся копии логов и контролфайлы на HDD для самоуспокоения.SSD тут принципиально ничего не меняет, т.к. например база на 20ТБ и естественно как-то странно пытаться воткнуть в тот же сервер SSD на 40TB чтобы получить единую точку отказа, поэтому нужен storage к которому как-то надо подключаться по нескольким путям, а там уже задержки появляются. Ну и возникает тот же вопрос, как storage нарезать, а не разнести ли нам индексы и таблицы по разным SSD. И естественно HDD используются и будут использоваться еще долго. Достаточно взглянуть на последние модели Exadata, ODI и т.д. Масштабируемость SSD наверное как-то могут повышать в ограниченных случаях, но по мне так это редкость. Плохая масштабируемость связана обычно с кривым дизайном-запросами, а какая там скорость одноблочного чтения и сколько IOPS уже не принципиально. Все обычно упирается в кол-во логических чтений, в сколько из них физических и насколько они быстрые уже не принципиально. Тем более сейчас, когда пара терабайт на Buffer Cache уже обычное дело. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 03:01 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
wurdudbpatchпропущено... SAME тоже устарел, как и идея использования HDD (в любом виде) для чего либо иного, как log/archlog/backupset Установка SSD позволяет практически (в реальных применения) неограниченно повышать масштабируемость системы, при этом тебе прощаются очень, даже слишком многие огрехи сайзинга и тюнинга. Как ни крути, а 120-240 iops для HDD против 44000-80000 iops на SSD дают себя знать - поместить 360 HDD для достижения сопоставимой с 1-м SDD производительности по iops - никакими SAME не достичь в разумных пределах. Т.е. вполне достаточно поставить пару SSD и ограничиться RAID1 mirroring, вынеся копии логов и контролфайлы на HDD для самоуспокоения.SSD тут принципиально ничего не меняет, т.к. например база на 20ТБ и естественно как-то странно пытаться воткнуть в тот же сервер SSD на 40TB чтобы получить единую точку отказа, поэтому нужен storage к которому как-то надо подключаться по нескольким путям, а там уже задержки появляются. Ну и возникает тот же вопрос, как storage нарезать, а не разнести ли нам индексы и таблицы по разным SSD. И естественно HDD используются и будут использоваться еще долго. Достаточно взглянуть на последние модели Exadata, ODI и т.д. Масштабируемость SSD наверное как-то могут повышать в ограниченных случаях, но по мне так это редкость. Плохая масштабируемость связана обычно с кривым дизайном-запросами, а какая там скорость одноблочного чтения и сколько IOPS уже не принципиально. Все обычно упирается в кол-во логических чтений, в сколько из них физических и насколько они быстрые уже не принципиально. SSD на 40TB не бывает, это раз. про масштабируемость на HDD - твои попытки выдать окроваения ничего, кроме зубной боли не вызывают. терабайтные объемы и мастштабирование HDD звучат актуально ну наверное для 2013 года, в 2017 такое слышать совсем не смешно. про экзадату, с ее flashcache - как-то совсем уже мимо кассы, я надеюсь ты не стал даже думать, что там все на hdd построено? два - когда говорят про пиписькомерку в 40TB, обычно забывают упомянуть, что из этих 40 терабайт реально горячих данных - от силы 50 гектар, остальное - это просто исторический хлам, который лишь иногда жует какой хадуп или его подобие. и три - ну если вам сильно, сильно надо, кто мегает натолкать на 40терабайт этих самых SSD? если там реальные бизнес-факты, то у вас бизнес как минимум на 100-200m$ ебитды в год, подобная установка вполне себе по карману. wurduТем более сейчас, когда пара терабайт на Buffer Cache уже обычное дело. Да, подобное вполне доступно на commodity железе, вкупе с inmemory compression, но в реальной практике это не принципиально, если вы конечно не какой процессинг пластика из небезызвестного банка, который умудрился все в один сервер как единую точку отказа затолкать (хотя бизнесу в том нет никакой нужды). найти же бизнес, которому нужно иметь в near-realtime такие объемы oltp данных - это еще поискать, и там наверняка будет стоять вовсе не Oracle EE RDBMS как inmemory database ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 03:29 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Relic Hunterdbpatch, на SSD индексы - не нужны. только место отъедают. о да! индексы это конечно не близкое к рандомному чтение, это строго секвенальное выкачивание многих сотен гигабайт в секунду. напиши еще откровений. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 03:31 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
dbpatchединственно разумным является именно один большой тейблспейс на все схемы и объектыНе, ну это уже совсем за гранью ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 06:37 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Расположение всех объектов на одном диске да еще и SSD - это просто замечательно. А вот как быть в случае с массированной записью ( 50 -200 млн/сутки). Как себя поведет SSD в данном случае. Да если еще при этом и клиенты с этими данными работают. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 08:19 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Вячеслав Любомудровdbpatchединственно разумным является именно один большой тейблспейс на все схемы и объектыНе, ну это уже совсем за гранью безусловно, в стандартные шаблоны штатного "нарезателя" ресурсов такое никак не вкладывается. как это так, я ведь стану совсем не нужным, кто же будет делать добрую треть моей работы - кропотливое добавление по гигабайтику в луны и тейблспейсы, мониторинг этого всего действа, разбор алертов и аут оф спейс инцидентов :):):) реально ни в какие ворота такое не лезет, ипотеку то как оплачивать? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 10:59 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
AlexlsРасположение всех объектов на одном диске да еще и SSD - это просто замечательно. А вот как быть в случае с массированной записью ( 50 -200 млн/сутки). Как себя поведет SSD в данном случае. Да если еще при этом и клиенты с этими данными работают. 50-200 млн. сутки чего? TCP трафик в базу данных кладете? и еще раз - никто нигде не говорил иметь один SSD диск на всё (там конечный ресурс по терабайтам записи) говорилось несколько обратное - положить все, что не redolog/archlog/backupset на SSD диск(и), т.е. таблицы и индексы, и не заниматься ерундой с нарезкой и "тонкой" балансировкой этого всего. в остальном - если диск способен на 40000 iops, то в сутки он сможет 3,456,000,000 iops, это несколько больше, чем 200m, верно? кроме того, большой fast_start_mttr и buffer cache позволит отложить запись в дейтафайлы, по сути вся sync-ронизируемая запись будет только в redo/ctl файлы, в дейтафайлы будет информация будет сбрасываться пакетировано (индексный блок обновится десятки раз в кеше, прежде чем упасть на диск, и т.п.). этож азы, зачем это объяснять? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 11:06 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
dbpatch, К сожалению SSD это отнюдь не ХДД. И это тоже азы. И не выжно один он или их много. Так что вопрос закономерен. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 11:15 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
О, Грекс опять реинкарнировался :-) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 12:27 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
dbpatchкроме того, большой fast_start_mttr и buffer cache позволит отложить запись в дейтафайлыЭто, точно Он прямо слушается твоего "большого fast_start_mttr"_target(?) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 12:30 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Всем спасибо. Поскольку никто не высказал явных аргументов против, то создаю свою БД по принципу данные отдельно, индексы отдельно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 12:49 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
index_dataВсем спасибо. Поскольку никто не высказал явных аргументов против, то создаю свою БД по принципу данные отдельно, индексы отдельно.Ну если более низкая производительность такого решения не аргумент (просто потому что не получится добиться такой же степени утилизации), то можно и так. Только не понятно, почему только индексы. Можно UNDO, TEMP разбросать по шпинделям, еще чего-нить придумать можно ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 12:58 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Да, вроде, наоборот Все, (кроме меня ), высказались за одну большую помойку Это, может, и неплохо, когда у тебя есть куча места в твоем безраздельном пользовании, но когда собираешь по кускам, с одного массива, с другого... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 13:01 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Вячеслав Любомудровdbpatchкроме того, большой fast_start_mttr и buffer cache позволит отложить запись в дейтафайлыЭто, точно Он прямо слушается твоего "большого fast_start_mttr"_target(?) И? Сделать эксперимент и проверить поведение при 3600 самому тебе не позволяет чувство очень глубокого самоуважения? Впрочем. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 13:05 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
Вячеслав ЛюбомудровДа, вроде, наоборот Все, (кроме меня ), высказались за одну большую помойку Это, может, и неплохо, когда у тебя есть куча места в твоем безраздельном пользовании, но когда собираешь по кускам, с одного массива, с другого... и в чем трудность собирать по кускам? собирать можно откуда угодно, нигде не озвучивалось требование иметь один большой datafile речь была именно про один большой tablespace, в котором лежат таблицы и индексы со всех юзерских схем, а где там евойные datafile лежат - дело десятое. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 13:07 |
|
||
|
index и data на разных дисках
|
|||
|---|---|---|---|
|
#18+
wurduindex_dataВсем спасибо. Поскольку никто не высказал явных аргументов против, то создаю свою БД по принципу данные отдельно, индексы отдельно.Ну если более низкая производительность такого решения не аргумент (просто потому что не получится добиться такой же степени утилизации), то можно и так. Только не понятно, почему только индексы. Можно UNDO, TEMP разбросать по шпинделям, еще чего-нить придумать можно :) TEMP отдельная тема. даже очень, очень многоуважаемые сервис провайдеры (ну очень уважаемые, дальше уважать просто некуда) умудряются раскладывать TEMP на LUNы, которые еще и синхронно реплицируюся в соседний датацентр. когда задаешь вопрос - ... эээээ.... зачем реплицировать-то, зачем их вообще хранить на SAN, можно же просто на локальный диск, их же после останова инстанса (или восстановления оного, переезда на другую ноду, итп) можно просто удалять, база их просто пересоздаст, состояние важно только для текущий сессий - стена непонимания. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 25.01.2017, 13:12 |
|
||
|
|

start [/forum/topic.php?fid=52&msg=39390970&tid=1886584]: |
0ms |
get settings: |
8ms |
get forum list: |
13ms |
check forum access: |
2ms |
check topic access: |
2ms |
track hit: |
165ms |
get topic data: |
9ms |
get forum data: |
2ms |
get page messages: |
52ms |
get tp. blocked users: |
1ms |
| others: | 267ms |
| total: | 521ms |

| 0 / 0 |
