я думаю смысл mdadm + btrfs все-таки есть, т.к. в случае установки системы на mdraid система сама загрузчик ставит на диски в массиве, можно самому скопировать, но все же. Кроме того в последствии нет необходимости ручной загрузки деградированного массива.
Конкретно в моём случае - это неважно, т.к. у меня этот массив не загрузочный, а тупо большая файлопомойка, плюс сторадж под owncloud.
А по поводу RAID1 на 4х попарно неравных дисков - субъективно чисто средствами btrfs будет лучше по скорости. Рассмотрим 3 варианта:
1. В случае 2-х массивов mdadm и lvm сверху - получаем банальный JBOD из двух массивов. Скорость чтения/записи - как с единственного диска.
2. Если делаем 2 массива mdadm и том btrfs сверху типа single (уже без lvm), собранный из этих 2х массивов - то субъективно получается быстрее, т.к. данные пишутся наподобие страйпов, кусочками на оба диска сразу, это видно через atop. Да и заполняемость дисков примерно с одинаковой скоростью идёт- проверяется через btrfs filesystem usage.
3. Массив RAID1 из 4-х дисков без прослойки mdadm - всё тоже самое, только запись сразу на 4 диска, нет чётких правил основной диск/зеркало, данные пишутся рандомно на все диски с таким условием, чтобы были дублирующие блоки как минимум на 2х дисках.
Я уже не могу это точно проверить, т.к. разрушил и lvm и mdadm, сейчас массив конвертится с single в raid1, еще до вечера наверное будет маслать. Но вчера, когда я переносил данные rsync-ом c lvm на single том btrfs, было видно, что данные писались на оба диска сразу и скорость передачи данных была гораздо выше, чем когда я первоначально переносил данные lvm->lvm в пределах одной группы томов. Для примерного ориентира - в первом случае скорость была 80-110Мб/сек, во втором - 100-160Мб/сек