Итак. данные получены так.
shoorf@ZAMEC:~$ ls -la /dev/mapper/
итого 0
drwxr-xr-x 2 root root 140 2009-08-26 00:15 .
drwxr-xr-x 15 root root 4120 2009-08-26 00:16 ..
crw-rw---- 1 root root 10, 61 2009-08-26 00:15 control
brw-rw---- 1 root disk 252, 0 2009-08-26 00:15 nvidia_egbcfdda
brw-rw---- 1 root disk 252, 1 2009-08-25 20:53 nvidia_egbcfdda1
brw-rw---- 1 root disk 252, 5 2009-08-26 00:15 nvidia_egbcfdda5
brw-rw---- 1 root disk 252, 6 2009-08-26 00:15 nvidia_egbcfdda6
nvidia_egbcfdda - девайс рейда целиком.
nvidia_egbcfdda1, nvidia_egbcfdda5, nvidia_egbcfdda6 - разделы на девайсе.
Как я понимаю, обращаясь тестом hdparm-a к самому девайсу:
shoorf@ZAMEC:~$ sudo hdparm -t /dev/mapper/nvidia_egbcfdda
/dev/mapper/nvidia_egbcfdda:
Timing buffered disk reads: 290 MB in 3.02 seconds = 96.04 MB/sec
получаем скорость чтения бинарного бреда вне зависимости от разделов созданных на нем. Под виндой запускаю Windowsкую версию hdparm, там уже правда обращаюсь к разделам, иначе никак.
То есть боюсь что даже если я создам на рейде ext4 разделы, производительность будет не выше. Цель всего этого действа - настроить рейд таким образом, чтобы производительность девайса была не более чем на 5-10% ниже чем под виндой.
Очевидно, что проблема только в device mapper?
з.ы. как-то года 4 назад настраивал древнюю слаку на использование псевдо-аппаратного pci-ide страйпа. Грузил там ядро с поддержкой scsi (или raid?) и в системе запросто появлялись /dev/md, /dev/md1, /dev/md5 и т д. Может и тут так получится? Я просто не знаю как правильно сейчас перебирают и подключают ядра, и с грубом дела никогда не имел, с детства его побаиваюсь. До мегобайтов манов руки пока не дошли
Или может попробовать поставить серверную Ubuntu??