Здравствуйте!
Есть необходимость скачивать файлы, выложенные на файлообменниках с помощью jdownloader. Работающего расширения, которое поддерживает загрузку из нескольких rss-лент не нашел.
Поэтому наколхозил на баше однострочники, которые сохраняют ссылки на nitroflare.com в файл
#!/usr/bin/bash
curl --silent https://www.downloadmedicalbooks.com/feed/ | sed -E 's/<[^>]+>//g' | grep -oE 'https://[^"]*nitroflare\.com[^"]*' | sed -E 's/ |]]>//g' | uniq | grep -v -e "rapidgator\.net" -e "katfile\.com" -e "turbobit\.com" > links.txt
wget -qO- https://freebookspot.club/freebookspot_Medicine_news.xml | grep -oP '<link>\K[^<]+' | xargs -I {} wget -qO- {} | grep -oE 'https://[^"]*(\.pdf|\.epub|\.rar)[^"]*' | grep -v -e "rapidgator\.net" -e "katfile\.com" -e "turbobit\.com" >> links.txt
Но скрипт собирает все ссылки, а как отбирать только новые, например за последние сутки?