Tôi đang chạy Spark trên EMR như mô tả trong Run Spark and Spark SQL on Amazon Elastic MapReduce:Làm thế nào để ngăn chặn thông báo INFO cho spark-sql đang chạy trên EMR?
hướng dẫn này hướng dẫn bạn cách cài đặt và điều hành Spark, một và chung động cơ nhanh cho xử lý dữ liệu quy mô lớn, trên một Amazon EMR cluster. Bạn cũng sẽ tạo và truy vấn tập dữ liệu trong Amazon S3 bằng cách sử dụng Spark SQL và tìm hiểu cách giám sát Spark trên cụm Amazon EMR với Amazon CloudWatch.
Tôi đang cố gắng tắt INFO
nhật ký bằng cách chỉnh sửa $HOME/spark/conf/log4j.properties
không có kết quả.
Output trông giống như:
$ ./spark/bin/spark-sql
Spark assembly has been built with Hive, including Datanucleus jars on classpath
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/hadoop/.versions/2.4.0/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/hadoop/.versions/spark-1.1.1.e/lib/spark-assembly-1.1.1-hadoop2.4.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
2014-12-14 20:59:01,819 INFO [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(1009)) - mapred.input.dir.recursive is deprecated. Instead, use mapreduce.input.fileinputformat.input.dir.recursive
2014-12-14 20:59:01,825 INFO [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(1009)) - mapred.max.split.size is deprecated. Instead, use mapreduce.input.fileinputformat.split.maxsize
2014-12-14 20:59:01,825 INFO [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(1009)) - mapred.min.split.size is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize
2014-12-14 20:59:01,825 INFO [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(1009)) - mapred.min.split.size.per.rack is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize.per.rack
Làm thế nào để ngăn chặn những thông điệp INFO trên?
gói java cho Spark là gì? –
Một số tiến trình: Thực hiện './spark/bin/spark-shell --driver-java-options" -Dlog4j.debug "' Cho phép tôi chuyển tùy chọn JVM và thấy rằng đó là tệp log4j.properties ở đâu đó trong một cái lọ. Làm './spark/bin/spark-shell --driver-java-options" -Dlog4j.configuration = file: /// home/hadoop/spark/conf/log4j.các thuộc tính "' Dường như hoạt động, mặc dù điều này có vẻ khó khăn – rongenre