Эффективное создание резервных копий жесткого диска
Мы находимся в процессе сокращения наших каталогов, чтобы восстановить некоторое дисковое пространство.
"Алгоритм" для процесса сокращения / резервного копирования состоит из списка каталогов и для каждого из них набора правил, например "compress *.bin", "move *.blah", "delete *.crap"., "оставить *. важным"; эти правила меняются от каталога к каталогу, но хорошо известны. Сжатые и перемещенные файлы хранятся во временной файловой системе, записываются на синий луч, проверяются на синем луче и, наконец, удаляются из их исходного местоположения.
Я делаю это на Python (в основном walk
выписка со словарем с правилами для каждого расширения в каждой папке).
Вы рекомендуете лучшую методологию для сокращения файловых систем? Как ты делаешь это?
Мы работаем на Linux.
2 ответа
У меня была система для удаления старых резервных копий из раздела архивных архивов. У каждого хоста был свой каталог. В каждом каталоге я бы определил файл (например, 00info
) что мой секатор будет читать и запустить поиск против. Проблема была в том, что резервные копии, входящие в каталог, не соответствовали шаблонам в файле. Он использовал bin / find в первую очередь, как
foreach pat in $patterns; do find . -type f -name "$pat" -mtime +7 | xargs rm -f ; done
Это было не здорово, но было очень просто. И я считаю, что если его просто поддерживать, у вас будет время на то, чтобы поддерживать его среди нормальных ежедневных нагрузок.
Если вы программируете на python, bash-скрипт не сравнится с тем, на что вы способны. Поэтому я хотел бы предложить следующее: не чувствовать себя виноватым из-за того, что никто другой не использует: вы создали решение, соответствующее вашим требованиям, и вы не можете быть более правильным, чем это.
Есть ли реальная проблема, которую не решает ваш скрипт? Стало ли трудно поддерживать правила?