Tôi mới sử dụng Spark và tôi đang cố chạy ứng dụng này trên EC2. Tôi làm theo hướng dẫn trên trang web tia lửa bằng cách sử dụng spark-ec2 để khởi chạy cụm Spark. Sau đó, tôi cố gắng sử dụng spark-submit
để gửi ứng dụng đến cụm. Lệnh trông như thế này:Sử dụng trình kích hoạt tia lửa để gửi một ứng dụng đến cụm EC2
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://ec2-54-88-9-74.compute-1.amazonaws.com:7077 --executor-memory 2G --total-executor-cores 1 ./examples/target/scala-2.10/spark-examples_2.10-1.0.0.jar 100
Tuy nhiên, tôi đã nhận lỗi sau:
ERROR SparkDeploySchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.
Xin vui lòng cho tôi biết làm thế nào để sửa chữa nó. Cảm ơn.
Tôi đang gặp vấn đề tương tự khi bắt đầu công việc trên cụm ec2 bằng cách sử dụng công cụ pyspark hoặc spark-shell từ địa phương. Tôi đã thêm quy tắc vào để chấp nhận kết nối 7077 từ mọi nơi. Đưa cái gì? – Anthony