Tôi đang trong tình huống mà tôi có hai công việc tạo bản đồ. Tôi cảm thấy thoải mái hơn với python và có kế hoạch sử dụng nó để viết các kịch bản lệnh mapreduce và sử dụng tính năng phát trực tiếp của Hadoop. có thuận tiện để kết nối cả hai công việc theo hình thức khi sử dụng luồng hadoop không?Chaining nhiều nhiệm vụ mapreduce trong Hadoop streaming
Map1 -> Reduce1 -> Map2 -> Reduce2
Tôi đã nghe rất nhiều phương pháp để thực hiện điều này trong java, Nhưng tôi cần một cái gì đó cho Hadoop streaming.
Hmm, tôi không chắc chắn cách này sẽ làm việc. Tôi đã đặt câu hỏi: http://stackoverflow.com/questions/35249753/call-mapper-when-reducer-is-done – gsamaras