powered by simpleCommunicator - 2.0.56     © 2025 Programmizd 02
Целевая тема:
Создать новую тему:
Автор:
Закрыть
Цитировать
Форумы / Informix [игнор отключен] [закрыт для гостей] / Плохая производительность дисковой подсистемы на сервере под Informix.
25 сообщений из 90, страница 2 из 4
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36186600
onstat-
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Павел. С

Блочное.

Обязательно попробуйте raw .
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36186665
Павел. С
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Уменьшил размер файла с 40 до 10 МБ.
На линуксе стало
12 200 IO/s для блочного устройства
13 500 IO/s для RAW, сделанного командой raw на то же блочное устройство

40 МБ не влезало в кеш. Буду с этим разбираться.

Но все равно, откуда на win2003 55 000 IO/s, а на Linux только 13 500?
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36186693
Фотография Журавлев Денис
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Павел. С
Но все равно, откуда на win2003 55 000 IO/s, а на Linux только 13 500?может кривой драйвер контроллера, а может мерялка неправильно работает. Попробуйте на файлах в линуксе, если иометер научился direct_io


iozone вот умеет.
-I Use VxFS VX_DIRECT, O_DIRECT,or O_DIRECTIO for all file operations
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36186844
a_shats
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Павел. С,

Правильнее такую нагрузку создавать при значениях Outstanding I/Os >=100.
Под "потоками IOMeter'а" Вы понимаете Worker'ов ?
И, кстати, с начала теста смотреть показания счетчиков бессмысленно при Ваших значениях кэшей (50/50), дождитесь, пока они устаканятся (минут 3-5 хотя бы).
Второй момент - какие конкретно RAID-контроллеры участвовали в тесте ?
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36186886
Павел. С
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
a_shats
Правильнее такую нагрузку создавать при значениях Outstanding I/Os >=100.
. Могу еще раз тесты провести, с нужными значениями Outstanding I/Os.

a_shats
Под "потоками IOMeter'а" Вы понимаете Worker'ов ?
Да.

a_shats
И, кстати, с начала теста смотреть показания счетчиков бессмысленно при Ваших значениях кэшей (50/50), дождитесь, пока они устаканятся (минут 3-5 хотя бы).
Второй момент - какие конкретно RAID-контроллеры участвовали в тесте ?
HP Smart Array P400 для первого сервера на Win2003
HP Smart Array P600 для второго сервера на Linux
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187002
Фотография Журавлев Денис
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
onstat-Журавлев Денис

попробуйте для начала перейти на raw
http://oraclepitstop.wordpress.com/2008/02/15/raw-devices-on-rhel-5-or-oel-5/


Вот еще один интересный способ через udev.В той сцылке что я давал для rh5 (это чуть ниже), именно это и написано.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187042
a_shats
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Павел. С[Могу еще раз тесты провести, с нужными значениями Outstanding I/Os.
Попробуйте. Под линукс еще раз рекомендую iozone , только обратите внимание - нужно, чтобы паттерны нагрузок совпали.

Да.
Воркеры пользуются, когда надо создать разные по паттернам нагрузки на разные тома.

HP Smart Array P400 для первого сервера на Win2003
HP Smart Array P600 для второго сервера на Linux
Гм. Ни для того, ни для другого, ни 2 ни 8 винтов не могут дать столько, сколько не в состоянии будет переварить считалка.
Значит, что-то не так с тестами...
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187097
Павел. С
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
a_shatsПопробуйте. Под линукс еще раз рекомендую iozone , только обратите внимание - нужно, чтобы паттерны нагрузок совпали.
Следующий пост будет с результатами iozone.

a_shats
Гм. Ни для того, ни для другого, ни 2 ни 8 винтов не могут дать столько, сколько не в состоянии будет переварить считалка.
Значит, что-то не так с тестами...
Да, надо разобраться. Не хочется верить, что система со встроенным P400 и 2мя внутренними винтами работает шустрее отдельно поставленным P600 с 24мя винтами ))
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187148
Павел. С
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Сделал тесты с помощью iozone.
Размер файла 10 Мб, 8 потоков, блок 2к, O_DIRECT включен.
Вот параметры "iozone -l 8 -u 8 -s 10M -r 2k -O -I O_DIRECT"

Win2003 c 2мя винтами в RAID1:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
64.
65.
66.
67.
68.
69.
70.
71.
72.
73.
74.
75.
76.
77.
78.
	File size set to 10240 KB
	Record Size 2 KB
	OPS Mode. Output is in operations per second.
	Command line used: /cygdrive/c/Program Files/benchmarks/Iozone 3.321/iozone -l 8 -u 8 -s 10M -r 2k -O -I O_DIRECT
	Time Resolution = 0.000001 seconds.
	Processor cache size set to 1024 Kbytes.
	Processor cache line size set to 32 bytes.
	File stride size set to 17 * record size.
	Min process = 8 
	Max process = 8 
	Throughput test with 8 processes
	Each process writes a 10240 Kbyte file in 2 Kbyte records

	Children see throughput for  8 initial writers 	=  124680.87 ops/sec
	Parent sees throughput for  8 initial writers 	=   72694.18 ops/sec
	Min throughput per process 			=   14943.40 ops/sec 
	Max throughput per process 			=   16314.83 ops/sec
	Avg throughput per process 			=   15585.11 ops/sec
	Min xfer 					=    4457.00 ops

	Children see throughput for  8 rewriters 	=  122649.01 ops/sec
	Parent sees throughput for  8 rewriters 	=   88468.49 ops/sec
	Min throughput per process 			=   14659.10 ops/sec 
	Max throughput per process 			=   16126.17 ops/sec
	Avg throughput per process 			=   15331.13 ops/sec
	Min xfer 					=    4426.00 ops

	Children see throughput for  8 readers 		=  140932.86 ops/sec
	Parent sees throughput for  8 readers 		=  123466.08 ops/sec
	Min throughput per process 			=   16894.33 ops/sec 
	Max throughput per process 			=   18895.37 ops/sec
	Avg throughput per process 			=   17616.61 ops/sec
	Min xfer 					=    4315.00 ops

	Children see throughput for 8 re-readers 	=  116222.17 ops/sec
	Parent sees throughput for 8 re-readers 	=  103540.91 ops/sec
	Min throughput per process 			=   13740.34 ops/sec 
	Max throughput per process 			=   16001.27 ops/sec
	Avg throughput per process 			=   14527.77 ops/sec
	Min xfer 					=    4182.00 ops

	Children see throughput for 8 reverse readers 	=  117605.42 ops/sec
	Parent sees throughput for 8 reverse readers 	=  106272.50 ops/sec
	Min throughput per process 			=   12537.01 ops/sec 
	Max throughput per process 			=   15741.32 ops/sec
	Avg throughput per process 			=   14700.68 ops/sec
	Min xfer 					=    3883.00 ops

	Children see throughput for 8 stride readers 	=  107917.97 ops/sec
	Parent sees throughput for 8 stride readers 	=   96892.53 ops/sec
	Min throughput per process 			=   13102.49 ops/sec 
	Max throughput per process 			=   14672.53 ops/sec
	Avg throughput per process 			=   13489.75 ops/sec
	Min xfer 					=    4369.00 ops

	Children see throughput for 8 random readers 	=   88586.93 ops/sec
	Parent sees throughput for 8 random readers 	=   83035.27 ops/sec
	Min throughput per process 			=   10635.39 ops/sec 
	Max throughput per process 			=   11502.23 ops/sec
	Avg throughput per process 			=   11073.37 ops/sec
	Min xfer 					=    4569.00 ops

	Children see throughput for 8 mixed workload 	=  104911.75 ops/sec
	Parent sees throughput for 8 mixed workload 	=   75236.79 ops/sec
	Min throughput per process 			=   11942.28 ops/sec 
	Max throughput per process 			=   14285.60 ops/sec
	Avg throughput per process 			=   13113.97 ops/sec
	Min xfer 					=    4094.00 ops

	Children see throughput for 8 random writers 	=   97951.49 ops/sec
	Parent sees throughput for 8 random writers 	=   64343.68 ops/sec
	Min throughput per process 			=   11966.26 ops/sec 
	Max throughput per process 			=   12918.66 ops/sec
	Avg throughput per process 			=   12243.94 ops/sec
	Min xfer 					=    4557.00 ops



iozone test complete.

Linux c 24мя винтами в RAID10:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
64.
65.
66.
67.
68.
69.
70.
71.
72.
73.
74.
75.
76.
77.
78.
79.
80.
81.
82.
83.
84.
85.
86.
87.
88.
89.
90.
91.
92.
93.
94.
	File size set to 10240 KB
	Record Size 2 KB
	OPS Mode. Output is in operations per second.
	O_DIRECT feature enabled
	Command line used: iozone -l 8 -u 8 -s 10M -r 2k -O -I O_DIRECT
	Time Resolution = 0.000001 seconds.
	Processor cache size set to 1024 Kbytes.
	Processor cache line size set to 32 bytes.
	File stride size set to 17 * record size.
	Min process = 8 
	Max process = 8 
	Throughput test with 8 processes
	Each process writes a 10240 Kbyte file in 2 Kbyte records

	Children see throughput for  8 initial writers 	=   22462.66 ops/sec
	Parent sees throughput for  8 initial writers 	=   22343.97 ops/sec
	Min throughput per process 			=    2803.40 ops/sec 
	Max throughput per process 			=    2811.01 ops/sec
	Avg throughput per process 			=    2807.83 ops/sec
	Min xfer 					=    5104.00 ops

	Children see throughput for  8 rewriters 	=   25759.26 ops/sec
	Parent sees throughput for  8 rewriters 	=   25661.61 ops/sec
	Min throughput per process 			=    3217.27 ops/sec 
	Max throughput per process 			=    3222.98 ops/sec
	Avg throughput per process 			=    3219.91 ops/sec
	Min xfer 					=    5108.00 ops

	Children see throughput for  8 readers 		=   19055.99 ops/sec
	Parent sees throughput for  8 readers 		=   18531.42 ops/sec
	Min throughput per process 			=       3.38 ops/sec 
	Max throughput per process 			=    5865.11 ops/sec
	Avg throughput per process 			=    2382.00 ops/sec
	Min xfer 					=       3.00 ops

	Children see throughput for 8 re-readers 	=   18787.03 ops/sec
	Parent sees throughput for 8 re-readers 	=   18507.14 ops/sec
	Min throughput per process 			=       2.81 ops/sec 
	Max throughput per process 			=    3721.03 ops/sec
	Avg throughput per process 			=    2348.38 ops/sec
	Min xfer 					=       4.00 ops

	Children see throughput for 8 reverse readers 	=   19026.62 ops/sec
	Parent sees throughput for 8 reverse readers 	=   18076.39 ops/sec
	Min throughput per process 			=       7.19 ops/sec 
	Max throughput per process 			=   18976.25 ops/sec
	Avg throughput per process 			=    2378.33 ops/sec
	Min xfer 					=       2.00 ops

	Children see throughput for 8 stride readers 	=   18194.28 ops/sec
	Parent sees throughput for 8 stride readers 	=   16178.23 ops/sec
	Min throughput per process 			=       7.09 ops/sec 
	Max throughput per process 			=   13617.31 ops/sec
	Avg throughput per process 			=    2274.28 ops/sec
	Min xfer 					=       3.00 ops

	Children see throughput for 8 random readers 	=   18402.16 ops/sec
	Parent sees throughput for 8 random readers 	=   17709.42 ops/sec
	Min throughput per process 			=       7.56 ops/sec 
	Max throughput per process 			=    6577.13 ops/sec
	Avg throughput per process 			=    2300.27 ops/sec
	Min xfer 					=       6.00 ops

	Children see throughput for 8 mixed workload 	=   18554.13 ops/sec
	Parent sees throughput for 8 mixed workload 	=    8489.92 ops/sec
	Min throughput per process 			=      13.96 ops/sec 
	Max throughput per process 			=    7424.88 ops/sec
	Avg throughput per process 			=    2319.27 ops/sec
	Min xfer 					=      10.00 ops

	Children see throughput for 8 random writers 	=   25295.31 ops/sec
	Parent sees throughput for 8 random writers 	=   25198.92 ops/sec
	Min throughput per process 			=    3160.25 ops/sec 
	Max throughput per process 			=    3165.29 ops/sec
	Avg throughput per process 			=    3161.91 ops/sec
	Min xfer 					=    5112.00 ops

	Children see throughput for 8 pwrite writers 	=   22559.64 ops/sec
	Parent sees throughput for 8 pwrite writers 	=   22417.03 ops/sec
	Min throughput per process 			=    2817.89 ops/sec 
	Max throughput per process 			=    2827.33 ops/sec
	Avg throughput per process 			=    2819.95 ops/sec
	Min xfer 					=    5101.00 ops

	Children see throughput for 8 pread readers 	=   18969.20 ops/sec
	Parent sees throughput for 8 pread readers 	=   18555.44 ops/sec
	Min throughput per process 			=    2250.00 ops/sec 
	Max throughput per process 			=    3047.13 ops/sec
	Avg throughput per process 			=    2371.15 ops/sec
	Min xfer 					=    3871.00 ops



iozone test complete.

Стало еще непонятней интересней. Система с 2мя винтами просто чемпион.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187254
a_shats
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Павел. С,

Вы хотите протестировать, насколько контроллерам пофиг на ту ерунду, которой Вы их пытаетесь нагрузить ?

8 потоков с безумной кучей разнообразных паттернов нагрузок подряд, блоками 2КБайт, объемом меньше кэша - это не тестирование, а непонятно что.

Тестируйте - сотней потоков, конкретными нагрузками (отдельно random read, отдельно random write - за это отвечает параметр -i), объем - от десятка гигабайт и выше.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187276
Павел. С
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
a_shats
Вы хотите протестировать, насколько контроллерам пофиг на ту ерунду, которой Вы их пытаетесь нагрузить ?
)))
a_shats
8 потоков с безумной кучей разнообразных паттернов нагрузок подряд, блоками 2КБайт, объемом меньше кэша - это не тестирование, а непонятно что.

Тестируйте - сотней потоков, конкретными нагрузками (отдельно random read, отдельно random write - за это отвечает параметр -i), объем - от десятка гигабайт и выше.

На самом деле специально выбрал объем для тестов меньше кэша контроллера, по совету предыдущих комментаторов. Хочется понять, сколько "пролезает" IO/s "от приложения до контроллера" по максимуму.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187326
onstat-
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Павел. С
На самом деле специально выбрал объем для тестов меньше кэша контроллера, по совету предыдущих комментаторов. Хочется понять, сколько "пролезает" IO/s "от приложения до контроллера" по максимуму.

Вам не по максимум нужно , а по объему будущей базы.
Иначе вы не получите те же цифры в реальной работе.


У меня на сторадж на запись и чтение в рандоме в паралель в сумме пролазит 1.3Gbyte /sec
по максимуму, на операциях в 8 к.
НО в реальной работе я таких цифр не видел никогда.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187679
Фотография Журавлев Денис
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
драйвера карточки hp-шные или те котороые в дистрибутиве были?
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187718
Павел. С
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Журавлев Денисдрайвера карточки hp-шные или те котороые в дистрибутиве были?
Везде HP'шные драйвера. И в Win2003 и в Linux.

В Linux просто установил RPM.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36187785
Фотография Журавлев Денис
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Павел. СЖуравлев Денисдрайвера карточки hp-шные или те котороые в дистрибутиве были?
Везде HP'шные драйвера. И в Win2003 и в Linux.

В Linux просто установил RPM.

Ну тогда я не знаю

Children see throughput for 8 readers = 19055.99 ops/sec

19055.99*2/1024=37 мегабайт / сек ?? Чтение из памяти контроллера?

dmesg|tail что-ли покажите, обновитесь, попробуйте opensuse 11.0 с драйверами из дистра.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36188335
a_shats
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Журавлев Денис,

Там все просто - потому что полный микс из нагрузочных тестов.
Часть дергает винты даже если кэша хватает, часть не дергает.
Причем одна за другой идут разнотипные нагрузки, никакая оптимизация кэширования не помогает.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36188746
Фотография Журавлев Денис
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
a_shatsЖуравлев Денис,

Там все просто - потому что полный микс из нагрузочных тестов.
Часть дергает винты даже если кэша хватает, часть не дергает.
Причем одна за другой идут разнотипные нагрузки, никакая оптимизация кэширования не помогает.они по очереди идут, я думаю там числа на порядок больше должны быть на чтении маленького файла.

Вот например сервер и дисковый массив 2002 года:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
	Command line used: ./iozone -s 10M -r 2k -O -I -f /testdata/aaa.000
	Time Resolution = 0.000001 seconds.
	Processor cache size set to 1024 Kbytes.
	Processor cache line size set to 32 bytes.
	File stride size set to 17 * record size.
                                                            random  random    bkwd  record  stride                                   
              KB  reclen   write rewrite    read    reread    read   write    read rewrite    read   fwrite frewrite   fread  freread
           10240       2    1543    3140   107434   107930   76394     323   90645    3842   82874     1432     2977   90382    91080
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36188794
a_shats
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Журавлев Денис

Вот например сервер и дисковый массив 2002 года:

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
	Command line used: ./iozone -s 10M -r 2k -O -I -f /testdata/aaa.000
	Time Resolution = 0.000001 seconds.
	Processor cache size set to 1024 Kbytes.
	Processor cache line size set to 32 bytes.
	File stride size set to 17 * record size.
                                                            random  random    bkwd  record  stride                                   
              KB  reclen   write rewrite    read    reread    read   write    read rewrite    read   fwrite frewrite   fread  freread
           10240       2    1543    3140   107434   107930   76394     323   90645    3842   82874     1432     2977   90382    91080

А тут тест вообще в один поток.
И чего Вы таким образом намеревались намерить ? :)
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36188897
Фотография Журавлев Денис
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
a_shatsА тут тест вообще в один поток.
И чего Вы таким образом намеревались намерить ? :)ок. я дурак.

Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
	
	File size set to 10240 KB
	Record Size 2 KB
	OPS Mode. Output is in operations per second.
	VxFS advanced feature SET_CACHE, VX_DIRECT enabled
	Command line used: ./iozone -l 8 -u 8 -s 10M -r 2k -O -I -F /testdata/aaa.000 /testdata/aaa.001
 /testdata/aaa.002 /testdata/aaa.003 /testdata/aaa.004 /testdata/aaa.005 /testdata/aaa.006 /testdata/aaa.007
	Time Resolution = 0.000001 seconds.
	Processor cache size set to 1024 Kbytes.
	Processor cache line size set to 32 bytes.
	File stride size set to 17 * record size.
	Min process = 8 
	Max process = 8 
	Throughput test with 8 processes
	Each process writes a 10240 Kbyte file in 2 Kbyte records


	Children see throughput for  8 readers 		=  191811.19 ops/sec
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36189049
a_shats
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Журавлев Денис,

И опять не совсем :) Если у Вас на старом сервере, который Вы таким образом тестируете, имеется какой-никакой RAID-контроллер с кэшем - получается ровно та же самая ерунда, что и у автора темы :) Намекаю - у Вас с базой работает 1, 8 или несколько больше пользователей ?
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36189128
onstat-
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
a_shatsЖуравлев Денис,

амекаю - у Вас с базой работает 1, 8 или несколько больше пользователей ?


У INFORMIX DS ассинхронные и чтение и запись,
количество пишущих и читающих процессов от количества пользователей не зависит.
Зависть только от параметров .
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36189165
Фотография Журавлев Денис
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
a_shatsЖуравлев Денис,

И опять не совсем :) Если у Вас на старом сервере, который Вы таким образом тестируете, имеется какой-никакой RAID-контроллер с кэшем - получается ровно та же самая ерунда, что и у автора темы :) Намекаю - у Вас с базой работает 1, 8 или несколько больше пользователей ?я подозреваю что у автора темы такие маленькие числа из проблемы с линуксом, с дровами, etc.

Намек про 8 мне какбы не интересен, потому что активных пользователей в единицу времени у меня обычно 1%. Т.е. 8 потоков для меня эмулируют работу 800 пользователей.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36189215
svat2
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Гость
Павел. С
Сервер раз
Код: plaintext
1.
физ. диски - 2х SAS 10k RPM 72 GB. Внутри сервера. Кеш дисков  выключен. 

Сервер два
Код: plaintext
1.
физ. диски - 24х SAS 15k RPM 72 GB. Внешние. Кеш дисков  выключен. 


Павел. С
Хочется понять, сколько "пролезает" IO/s "от приложения до контроллера" по максимуму.


Если под "кеш дисков" подразумевается кеш RAID-контроллера, то для удовлетворения
понимания из второй цитаты нужно поменять выделенное в первой.
Иначе получаем значение "от приложения до дисков ".
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36189230
a_shats
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
svat2,

Кэш дисков - подразумевается кэш записи на самих винтах, судя по всему.
А поскольку он никакими BBU не страхуется - дОлжно его отключать.
...
Рейтинг: 0 / 0
Плохая производительность дисковой подсистемы на сервере под Informix.
    #36189242
a_shats
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Журавлев Денис
Намек про 8 мне какбы не интересен, потому что активных пользователей в единицу времени у меня обычно 1%. Т.е. 8 потоков для меня эмулируют работу 800 пользователей.
А, ну тогда понятно. Но и в этом случае есть замечания: Informix вряд ли работает по одному блоку размером в 2 КБ, подозреваю, что как все - блоками побольше и burst'ами по несколько блоков за раз.
...
Рейтинг: 0 / 0
25 сообщений из 90, страница 2 из 4
Форумы / Informix [игнор отключен] [закрыт для гостей] / Плохая производительность дисковой подсистемы на сервере под Informix.
Найденые пользователи ...
Разблокировать пользователей ...
Читали форум (0):
Пользователи онлайн (0):
x
x
Закрыть


Просмотр
0 / 0
Close
Debug Console [Select Text]