Tôi đang sử dụng HiveContext với SparkSQL và tôi đang cố gắng kết nối với một kho lưu trữ Hive từ xa, cách duy nhất để thiết lập kho lưu trữ hive là thông qua việc bao gồm tệp hive-site.xml trên classpath (hoặc sao chép nó vào/etc/spark/conf /).Làm thế nào để kết nối với một kho lưu trữ Hive lập trình trong SparkSQL?
Có cách nào để đặt tham số này theo lập trình trong mã java mà không bao gồm tệp hive-site.xml không? Nếu vậy cấu hình Spark sử dụng là gì?
Trong trường hợp của một Kerberized xa cụm Hive các thêm HiveContext cấu hình là gì thiết lập cần thiết? Đoạn mã trên không làm việc cho tôi trong trường hợp này và tôi tự hỏi nếu bạn có một giải pháp. Cảm ơn. –
Vẫn không hoạt động. Cài đặt của tôi: ("hive.metastore.uris "," myValue ") (" login.user "," myValue ") (" keytab.file "," myValue ") (" sun.security.krb5.debug "," false ") (" java.security.krb5.conf "," myValue ") (" java.library.path "," myValue ") (" hadoop.home.dir "," myValue ") (" hadoop.security.authentication " , "kerberos") ("hive.metastore.sasl.enabled", "true") ("hive.security.authorization.enabled", "false") ("hive.metastore.kerberos.principal", " myValue ") (" hive.metastore.execute.setugi "," true ") –
Có vẻ như tôi là Spark địa phương của tôi thậm chí không cố gắng kết nối Hive từ xa dựa trên những gì tôi thấy trong nhật ký –