Làm thế nào để bạn định cấu hình tự động tính toán AWS để mở rộng quy mô nhanh chóng? Tôi đã thiết lập một nhóm tự động tính toán AWS với một ELB. Tất cả đều hoạt động tốt, ngoại trừ phải mất vài phút trước khi các phiên bản mới được thêm vào và đang trực tuyến. Tôi đã xem các bài viết sau về Rối và tự động quy đổi:Tự động xử lý nhanh AWS
Thời gian chia tỷ lệ có thể giảm từ vài phút xuống vài giây nếu AMI bạn sử dụng cho một nhóm nút đã được cập nhật.
http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/
Đây có phải là sự thật? Thời gian để quy mô có thể giảm xuống một vài giây không? Sẽ sử dụng con rối thêm bất kỳ tăng hiệu suất?
Tôi cũng đọc mà trường hợp nhỏ hơn bắt đầu nhanh hơn những người lớn hơn:
nhỏ Instance 1,7 GB bộ nhớ, 1 EC2 Tính Unit (1 lõi ảo với 1 EC2 Tính Unit), 160 GB dung lượng lưu trữ dụ, 32-bit nền tảng với một cơ sở cài đặt của CentOS 5.3 AMI
Lượng thời gian từ khởi động sơ thẩm vào tình trạng phòng: từ 5 đến 6 phút chúng tôi đông-1c
lớn instance 7,5 GB bộ nhớ, 4 EC2 Đơn vị tính toán (2 lõi ảo với 2 EC2 Tính toán Đơn vị mỗi), 850 GB dung lượng lưu trữ Ví dụ, 64-bit nền tảng với một cơ sở cài đặt của CentOS 5.3 AMI
Lượng thời gian từ khởi động sơ thẩm vào tình trạng phòng:
giữa 11 và 18 phút chúng tôi đông-1cCả hai đã được bắt đầu thông qua dòng lệnh bằng cách sử dụng công cụ Amazons.
http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance
tôi lưu ý rằng bài viết là cũ và trường c1.xlarge của tôi chắc chắn không dùng 18min để khởi động. Tuy nhiên, sẽ cấu hình một nhóm autoscale với 50 trường hợp vi mô (với một chính sách quy mô lên 100% tăng công suất) sẽ hiệu quả hơn một với 20 trường hợp lớn? Hoặc có khả năng tạo ra hai nhóm autoscale, một trong những micros cho thời gian khởi động nhanh và một trong những trường hợp lớn để thêm CPU grunt một vài phút sau đó? Tất cả đều bình đẳng, t1.micro nhanh hơn bao nhiêu so với c1.xlarge?