Как безопасно загрузить много ГБ данных в Amazon S3?

Я копирую свою личную фото / видео библиотеку на Amazon S3 (несколько сотен ГБ).

В настоящее время я использую Cyberduck на своем Mac для перетаскивания, но у меня уже было несколько неудачных попыток без явного повторения / возобновления поведения.

Я хотел бы найти способ загрузить каталог с уверенностью, что все они будут переданы полностью, и с четким способом повторить / возобновить любой, который потерпел неудачу.

Чтобы вы посоветовали? Подход командной строки в порядке.

1 ответ

По вашей проблеме вы можете попробовать Bucket Explorer

Особенности Bucket Explorer

  • Вы можете просматривать корзины и файлы, хранящиеся на Amazon S3.
  • Загружать и скачивать файлы в и из корзин Amazon S3.
  • Bucket Explorer работает на всех ОС, где поддерживается Java.

Bucket Explorer поставляется с функцией Multipart upload. Это позволяет загружать отдельный объект как набор частей. В процессе загрузки каждая часть является частью данных объекта, и каждая часть может быть загружена независимо. Multipart Upload предлагает много преимуществ по сравнению с простой загрузкой, особенно когда размер объекта очень большой.

Другие вопросы по тегам