Все зависит от того, в каком виде сохраненные файлы. Если необработанные страницы с каких-нибудь блогов - жуть. Основная проблема в исходных файлах. Если они просто сохранялись с сайтов, то в папке имя_файла_files может быть еще куча хтмл-файлов, которых конвертировать не надо, поэтому командой - find -name '*.html' нужные файлы не найдешь. Нужно скрипт писать.
Кроме того, если конвертировать (допустим, с помощью python-pisa), то если они сохранены с таблицами, стилями, скриптами и прочей лабудой, то результат, скорее всего будет отвратителен.
Вообще, на будущее - собирать коллекцию информации просто сохраняя страницы и раскидывая их по папкам - пустая трата времени. Для серьезной работы - используй плагин Scrapbook для Firefox.
ЗЫ Основная мысль - можно, и, может быть, даже не очень сложно, но все зависит от того, в каком виде файлы - кодировка, пробелы в именах файлов, стили. В простейшем случае все могло бы быть так:
% ls -R | grep 'html$' | while read f; do
xhtml2pdf "$f" "${f%html}pdf"
done