Tôi đã cố gắng hết sức để thử apache spark. Câu hỏi của tôi là cụ thể hơn để kích hoạt công việc tia lửa. Here Tôi đã đăng câu hỏi về việc tìm hiểu công việc về tia lửa. Sau khi nhận được công việc bẩn thỉu tôi chuyển sang yêu cầu của tôi.Kích hoạt công việc tạo tia lửa với REST
Tôi có điểm kết thúc REST nơi tôi hiển thị API để kích hoạt Công việc, tôi đã sử dụng Spring4.0 để thực hiện Rest. Bây giờ, tôi đã nghĩ đến việc triển khai Jobs là Service vào mùa xuân, nơi tôi sẽ gửi Job theo chương trình, có nghĩa là khi điểm cuối được kích hoạt, với các tham số đã cho, tôi sẽ kích hoạt công việc. Tôi hiện có ít tùy chọn thiết kế.
Tương tự như công việc dưới đây, tôi cần duy trì một số Công việc được gọi bởi lớp trừu tượng có thể là
JobScheduler
./*Can this Code be abstracted from the application and written as as a seperate job. Because my understanding is that the Application code itself has to have the addJars embedded which internally sparkContext takes care.*/ SparkConf sparkConf = new SparkConf().setAppName("MyApp").setJars( new String[] { "/path/to/jar/submit/cluster" }) .setMaster("/url/of/master/node"); sparkConf.setSparkHome("/path/to/spark/"); sparkConf.set("spark.scheduler.mode", "FAIR"); JavaSparkContext sc = new JavaSparkContext(sparkConf); sc.setLocalProperty("spark.scheduler.pool", "test"); // Application with Algorithm , transformations
Mở rộng điểm trên có nhiều phiên bản lệnh được xử lý bởi dịch vụ.
Hoặc người nào khác sử dụng Máy chủ công việc Spark để thực hiện việc này.
Đầu tiên, tôi muốn biết giải pháp tốt nhất trong trường hợp này, thực hiện khôn ngoan và cũng mở rộng quy mô khôn ngoan là gì.
Lưu ý: Tôi đang sử dụng cụm độc lập từ tia lửa. vui lòng trợ giúp.
Tôi đã thêm thẻ Spring for Apache Hadoop vào câu hỏi này. Spring Batch Admin cung cấp một API REST để quản lý và khởi chạy các công việc và tôi tin rằng Spring for Apache Hadoop cung cấp khả năng khởi chạy các công việc Spark từ Spring Batch ... –
@MichaelMinella: cảm ơn vì đề nghị này, tôi chắc chắn sẽ xem xét nó. – chaosguru