Khi tôi chạy việc hadoop của tôi, tôi nhận được lỗi sau:không bình thường lỗi Hadoop - nhiệm vụ bị giết trên của riêng mình
nhận được yêu cầu giết nhiệm vụ 'attempt_201202230353_23186_r_000004_0' của thành viên công tác đã được KILLED_UNCLEAN bởi người sử dụng
Nhật ký có vẻ sạch sẽ. Tôi chạy 28 bộ giảm tốc, và điều này không xảy ra cho tất cả các bộ giảm tốc. Nó xảy ra cho một vài lựa chọn và bộ giảm tốc bắt đầu lại. Tôi không hiểu điều này. Ngoài ra điều khác tôi đã nhận thấy là đối với một tập dữ liệu nhỏ, tôi hiếm khi thấy lỗi này!
Công việc có bị lỗi do sự cố này không? Bạn có đang chạy với thực thi đầu cơ được bật không? –
Có, thực thi đầu cơ được đặt thành true. Các công việc không thất bại, nó cuối cùng kết thúc với rất nhiều kiiled/thất bại reducers mà tổng thể làm tăng thời gian hoàn thành công việc! – RFT
@Pradeep Gollakota Ngoài ra, tôi đã quan sát thấy, các bộ giảm bị giết hoặc thất bại một lần tiếp tục bị giết như 8-9 lần cho đến khi chúng thành công và các bộ giảm không bị giết ngay cả khi được làm sạch trong suốt công việc! – RFT