Tôi đang sử dụng Spark 1.4.1. Tôi có thể sử dụng tính năng phát tia lửa mà không gặp vấn đề gì. Nhưng khi tôi chạy ~/spark/bin/spark-shell
Không thể khởi động chế độ spark-shell
Tôi gặp lỗi bên dưới Tôi đã định cấu hình SPARK_HOME
và JAVA_HOME
. Tuy nhiên, đã OK với Spark 1.2
15/10/08 02:40:30 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Failed to initialize compiler: object scala.runtime in compiler mirror not found.
** Note that as of 2.8 scala does not assume use of the java classpath.
** For the old behavior pass -usejavacp to scala, or if using a Settings
** object programatically, settings.usejavacp.value = true.
Failed to initialize compiler: object scala.runtime in compiler mirror not found.
** Note that as of 2.8 scala does not assume use of the java classpath.
** For the old behavior pass -usejavacp to scala, or if using a Settings
** object programatically, settings.usejavacp.value = true.
Exception in thread "main" java.lang.AssertionError: assertion failed: null
at scala.Predef$.assert(Predef.scala:179)
at org.apache.spark.repl.SparkIMain.initializeSynchronous(SparkIMain.scala:247)
at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply$mcZ$sp(SparkILoop.scala:990)
at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:945)
at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:945)
at scala.tools.nsc.util.ScalaClassLoader$.savingContextLoader(ScalaClassLoader.scala:135)
at org.apache.spark.repl.SparkILoop.org$apache$spark$repl$SparkILoop$$process(SparkILoop.scala:945)
at org.apache.spark.repl.SparkILoop.process(SparkILoop.scala:1059)
at org.apache.spark.repl.Main$.main(Main.scala:31)
at org.apache.spark.repl.Main.main(Main.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:665)
at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:170)
at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:193)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:112)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
bạn đã đặt 'SPARK_HOME' ở đâu? trong .bashrc của bạn? gây ra lỗi bạn nhận được là do SPARK_HOME không được thiết lập để 'spark-shell' cố gắng tìm nó từ' dirname' – user1314742
Tôi nên đặt SPARK_HOME của mình thành gì? Nó có nên được đặt để xuất SPARK_HOME =/usr/local/Cellar/apache-spark/2.2.0/bin không? – lordlabakdas
Tôi không nghĩ vấn đề là SPARK_HOME. Một SPARK_HOME không chính xác sẽ khiến cho tập lệnh hệ vỏ lửa không tìm thấy trình kích hoạt tia lửa. Tuy nhiên, tôi thấy cùng một lỗi trên máy của tôi khi tôi đảm bảo rằng SPARK_HOME và khi tôi gọi "spark-submit --class org.apache.spark.repl.Main" trực tiếp. –