Доброго времени суток.
захотелось тут на днях немного облегчить себе жизнь и автоматизировать ежедневное обновления файла(из Интернета).
алгоритм - проверяем размер локального файла, проверяем размер удаленного файла, если совпадают - ничего не делаем, если не совпадают то удаляем старый и скачиваем новый.
вот что получилось.
#!/bin/bash
NOW=$(date +"%d-%m-%Y/%H-%M")
dirl=/home/maneframe/share/soft
durl=http://download.geo.drweb.com/pub/drweb/cureit/drweb-cureit.exe
fileR=$(curl -sI $durl | grep Content-Length | cut -d ' ' -f 2)
fileL=$(stat -c %s $dirl/drweb-cureit.exe)
if [ "$fileL" != "$fileR" ]; then
rm $dirl/drweb-cureit.exe
wget -P $dirl http://download.geo.drweb.com/pub/drweb/cureit/drweb-cureit.exe
echo $NOW "--download is done: Old " $fileL " New " $fileR $'\n' >> $dirl/drweb.log
else
echo $NOW "--not downloaded, is new" >> $dirl/drweb.log
fi
exit
файл скачиватеся каждый раз, даже если размеры совпадают, подозреваю что дело в curl либо stat(разные типы переменных).