Приблизительно такая же проблема.
Нужно сохранить веб-страницы со ВСЕМИ изображениями, что там находятся.
Ввожу wget
http://www.xyz.ru/ и скачивается только индексная страница в html-формате и ничего больше. А мне необходимо выкачать всё как есть. И при этом мне не нужно скачивать весь сайт, а считать данные из файла download.txt.
Приблизительно мне это видится, как
wget -i download.txt
если добавить -r, то качается слишком много ерунды и занимает слишком много времени.
А мне нужно конкретные урлы сохранить со всем его содержимым!
Как такого добиться, кто подскажет?