Скачиваю очень большой файл при помощи firefox-а (25 гигабайт), файл редкий с научными данными, так что альтернативы ему нету и на торрентах такого не бывает, лежит на очень помойном хостинге одного зарубежного университета, который в свою очередь сильно режет скорость закачки до 500 кб/с, так что скачиваается он сутки. Проблема в том, что качество связи у них тоже фиговое и время от времени происходят обрывы связи. Новый фаерфокс умеет докачивать файл после обрыва связи, но это надо руками кнопку нажимать и приходится раз в час проверять, а это никуда не годится, я оставшиеся 6 гигабайт уже с 9 часов утра докачать не могу - бесконечные обрывы, каждые 100-500 мегабайт обрыв происходит. Может можно как-то это автоматизировать? Понятно что надо было wget-ом или aria2c его качать, тогда такой проблемы бы не было, но я честно не думал, что такие помойки остались с которых скачать файл это целый квест.