2013-02-27 32 views
7

Tôi đang cố gắng đồng bộ hóa một vài nhóm lớn trên amazon S3.Trả về đồng bộ hóa S3cmd "đã bị giết"

Khi tôi chạy đồng bộ S3cmd - lệnh phản hồi, tôi nhận được câu trả lời là "bị giết".

Có ai biết điều này có thể đề cập đến không? Có giới hạn về số lượng tệp có thể được đồng bộ hóa trong S3 không?

Thx để được trợ giúp của bạn

Trả lời

7

Sau khi đọc xung quanh, có vẻ như chương trình có vấn đề về mức tiêu thụ bộ nhớ. Đặc biệt, điều này có thể gây ra OOM killer (ngoài bộ nhớ kẻ giết người) để gỡ bỏ quá trình và ngăn hệ thống bị sa lầy. Một cái nhìn nhanh chóng tại dmesg sau khi quá trình bị giết thường sẽ hiển thị nếu đây là trường hợp hay không.

Với ý nghĩ đó, tôi sẽ đảm bảo bạn đang sử dụng bản phát hành mới nhất, ghi chú rằng vấn đề tiêu thụ bộ nhớ đang được giải quyết trong release notes.

+0

Ngay trên nút. Tuy nhiên, sau khi cài đặt s3cmd từ nguồn mới nhất, quá trình này vẫn bị giết. Tôi có thể phải bump lên bộ nhớ trên trường hợp EC2 của tôi hoặc thực hiện một trong các bước sau: http://stackoverflow.com/a/15266865/242426 – plainjimbo

+0

Tôi đã chạy vào này là tốt, nhưng tôi đã chạy trong một Vagrant. Với mẹo mà nó là một vấn đề bộ nhớ, tôi đã kiểm tra cài đặt của tôi và tìm thấy rằng tôi đã chạy vm chỉ với 256MB. Khi tôi gặp vấn đề đó thì vấn đề đã được khắc phục. – SunSparc

+0

Tương tự ở đây, tăng bộ nhớ (trong trường hợp của tôi từ 512MB đến 2GB) đã giải quyết được vấn đề. – Pavel

0

Câu hỏi cũ, nhưng tôi muốn nói rằng, trước khi bạn cố gắng thêm bộ nhớ vật lý nhiều hơn hoặc tăng bộ nhớ vm, hãy thử thêm nhiều trao đổi hơn.

Tôi đã làm điều này với 4 máy chủ (ubuntu và centos) với ram thấp (tổng số 700MB, chỉ có 15MB có sẵn) và nó hiện đang hoạt động tốt.

Các vấn đề liên quan