Как безопасно загрузить много ГБ данных в Amazon S3?
Я копирую свою личную фото / видео библиотеку на Amazon S3 (несколько сотен ГБ).
В настоящее время я использую Cyberduck на своем Mac для перетаскивания, но у меня уже было несколько неудачных попыток без явного повторения / возобновления поведения.
Я хотел бы найти способ загрузить каталог с уверенностью, что все они будут переданы полностью, и с четким способом повторить / возобновить любой, который потерпел неудачу.
Чтобы вы посоветовали? Подход командной строки в порядке.
1 ответ
По вашей проблеме вы можете попробовать Bucket Explorer
Особенности Bucket Explorer
- Вы можете просматривать корзины и файлы, хранящиеся на Amazon S3.
- Загружать и скачивать файлы в и из корзин Amazon S3.
- Bucket Explorer работает на всех ОС, где поддерживается Java.
Bucket Explorer поставляется с функцией Multipart upload. Это позволяет загружать отдельный объект как набор частей. В процессе загрузки каждая часть является частью данных объекта, и каждая часть может быть загружена независимо. Multipart Upload предлагает много преимуществ по сравнению с простой загрузкой, особенно когда размер объекта очень большой.