blog Vì vậy, nhờ vào một cách dễ dàng googleable tôi đã cố gắng:Làm thế nào để ngăn chặn Spark đăng nhập trong các bài kiểm tra đơn vị?
import org.specs2.mutable.Specification
class SparkEngineSpecs extends Specification {
sequential
def setLogLevels(level: Level, loggers: Seq[String]): Map[String, Level] = loggers.map(loggerName => {
val logger = Logger.getLogger(loggerName)
val prevLevel = logger.getLevel
logger.setLevel(level)
loggerName -> prevLevel
}).toMap
setLogLevels(Level.WARN, Seq("spark", "org.eclipse.jetty", "akka"))
val sc = new SparkContext(new SparkConf().setMaster("local").setAppName("Test Spark Engine"))
// ... my unit tests
Nhưng tiếc là nó không hoạt động, tôi vẫn nhận được rất nhiều đầu ra tia lửa, ví dụ:
14/12/02 12:01:56 INFO MemoryStore: Block broadcast_4 of size 4184 dropped from memory (free 583461216)
14/12/02 12:01:56 INFO ContextCleaner: Cleaned broadcast 4
14/12/02 12:01:56 INFO ContextCleaner: Cleaned shuffle 4
14/12/02 12:01:56 INFO ShuffleBlockManager: Deleted all files for shuffle 4
Làm việc cho SBT với thông số kỹ thuật2 – samthebest
cảm ơn @Emre. nó hoạt động như sự quyến rũ cho java trong ý tưởng intelliJ. –