Chương trình của tôi, chương trình mà tôi đã chạy nhiều lần trên các cụm khác nhau đột nhiên dừng lại. Nhật ký:Apache Spark trên EC2 "Đã bị giết"
15/04/20 19:19:59 INFO scheduler.TaskSetManager: Finished task 12.0 in stage 15.0 (TID 374) in 61 ms on ip-XXX.compute.internal (16/24)
15/04/20 19:19:59 INFO storage.BlockManagerInfo: Added rdd_44_14 in memory on ip-XXX.compute.internal:37999 (size: 16.0 B, free: 260.6 MB)
Killed
"Đã chết" có nghĩa là gì và tại sao điều đó xảy ra? Không có lỗi nào khác.
Quy trình đã chạy nhiều lần trong nhiều giờ. Bây giờ, tuy nhiên, nó dừng lại sau 20 giây. Nó nói rằng có khoảng 255Mb bộ nhớ miễn phí cho mỗi nút. Nếu tôi khởi động một cụm mới thì nó hoạt động tốt trở lại. – monster