Форум русскоязычного сообщества Ubuntu


Автор Тема: wget для "хитрых" ссылок  (Прочитано 786 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн kaoss

  • Автор темы
  • Новичок
  • *
  • Сообщений: 1
    • Просмотр профиля
wget для "хитрых" ссылок
« : 24 Апреля 2014, 21:00:07 »
Есть изображения в одной галерее, ссылки на которые ведут в разные папки на сайте.
 
http://.../pics/images/002/190/228/0026c0dce79a3c6e4ca22f1789c09c7f8484f93b_key/page-6d76c38304641db2b77f17f7f1eb8816-1398220817/sDSC_0278.jpg
http://.../pics/images/002/190/242/f3e1e512a8391d63ade0e24da5752e925af13872_key/page-32a0642f6d7e67c29e4804ccdd919042-1398220846/sDSC_0294.jpg

Как с помощью wget скачать все изображения?

Оффлайн victor00000

  • Старожил
  • *
  • Сообщений: 15568
  • Глухонемой (Deaf)
    • Просмотр профиля
Re: wget для "хитрых" ссылок
« Ответ #1 : 24 Апреля 2014, 21:11:20 »
Цитировать
Как с помощью wget скачать все изображения?
нет, начало html найти строки jpg.
Wars ~.o

Оффлайн sash23

  • Участник
  • *
  • Сообщений: 130
    • Просмотр профиля
Re: wget для "хитрых" ссылок
« Ответ #2 : 26 Апреля 2014, 12:35:30 »
Можно написать скрипт на питоне и распарсить html. Для этого нужно использовать модули lxml или beautifulsoup.

Кроме того, ссылки (именно ссылки тег a, не img) на изображения можно скачать с помощью lynx

for i in `lynx -listonly -dump -nonumbers http://site.ru/fotogalery/ | grep -ie "jpg$"`;do wget $i;done

Оффлайн peregrine

  • FSM
  • СуперМодератор
  • Старожил
  • *
  • Сообщений: 7203
  • Gentoo x64 Ubuntu 16.04.1 x64
    • Просмотр профиля
Re: wget для "хитрых" ссылок
« Ответ #3 : 26 Апреля 2014, 12:38:59 »
kaoss, либо парсить HTML, либо разбирать алгоритм появления таких ссылок (маловероятно, что получится), если он привязан к папке.

 

Страница сгенерирована за 0.064 секунд. Запросов: 25.