Степень фрагметации не обсуждается.
Можно чуть подробнее расписать данное утверждение? Спасибо.
Как я писал, создание нефрагментируемой ФС теоретически возможно, но производительность её будет непредсказуема. Стало быть разработчику приходится выбирать между скоростью операций ввода-вывода, надёжностью хранения и фрагментируемостью файлов. Фрагментация есть, ибо она является неотъемлемым элементом ФС. Потому я и сказал, что теперь фрагментации не обсуждаем.
Ну и в догонку пара мыслей. Разработчики NTFS, например, очевидно плевали на фрагментированность ФС. Главное - надёжность и скорость операций над метаданными. Для этого резервируем место под MFT, а файлы данных размазываем по диску куда придётся, главное чтобы головкам диска
сию минуту ехать далеко не пришлось. Что будет завтра - плевать.
С другой стороны, по слухам, частично подтверждаемым практикой, разработчики вменяемых ФС под Юниксами пошли путём оптимизации размещения данных в расчёте на быстрый доступ к ним в будущем. Отсюда скорость записи может быть меньше и потребность в памяти выше. Смотрите хотя бы мою любимую XFS. Ради интереса, я делал sync после большого набора дисковых операций. Страшноватенько было наблюдать, как диск безостановочно шуршал несколько секунд. Я понимал, что в эти секунды на диск падает то, что я бы мог потерять при сбое. А если sync я бы не сделал, то данные чёрти сколько времени бы в памяти болтались, ожидая, когда драйвер удосужится подобрать свободное местечко подходящего размера. Напротив, например, NTFS максимум через 30 секунд независимо от нагрузки и дисковой активности обеспечивает
гарантированную запись данных на диск. Ценой фрагментации оных.