2013-06-05 39 views
6

Tôi đã cố gắng cài đặt Hadoop trên một cụm nút đơn (labtop-ubuntu 12.04 của riêng tôi). Tôi đã làm theo hướng dẫn này và kiểm tra nó theo từng dòng hai lần. http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/

mọi thứ có vẻ chính xác. Tôi đặt tất cả tệp core-site.xml, mapred-site.xml, hdfs-site.xml.

khi tôi chạy lệnh sau trong hduser su:

[email protected]:~$ /usr/local/hadoop/usr/sbin/start-all.sh 

tôi nhận được các lỗi sau đây:

Warning: $HADOOP_HOME is deprecated. 

starting namenode, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-namenode-maziyar-Lenovo-IdeaPad-U300s.out 
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory 
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/masters: No such file or directory 
starting jobtracker, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-jobtracker-maziyar-Lenovo-IdeaPad-U300s.out 
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory 

tôi thêm HADOOP_HOME_WARN_SUPPRESS xuất khẩu = "TRUE" vào hadoop-env.sh và vẫn lỗi tương tự.

Mở file /home/hduser/.bashrc nơi tôi đoán lỗi của tôi đến từ I có:

# Set Hadoop-related environment variables 
export HADOOP_HOME=/usr/local/hadoop 

# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on) 
export JAVA_HOME=/usr/lib/jvm/jdk-7u10-linuxi586/usr/java/jdk1.7.0_10 

# Some convenient aliases and functions for running Hadoop-related commands 
unalias fs &> /dev/null 
alias fs="hadoop fs" 
unalias hls &> /dev/null 
alias hls="fs -ls" 

# If you have LZO compression enabled in your Hadoop cluster and 
# compress job outputs with LZOP (not covered in this tutorial): 
# Conveniently inspect an LZOP compressed file from the command 
# line; run via: 
# 
# $ lzohead /hdfs/path/to/lzop/compressed/file.lzo 
# 
# Requires installed 'lzop' command. 
# 
lzohead() { 
    hadoop fs -cat $1 | lzop -dc | head -1000 | less 
} 

# Add Hadoop bin/ directory to PATH 
export PATH=$PATH:$HADOOP_HOME/usr/sbin 

tôi thêm/usr/sbin như một thư mục bin vì start-all.sh và lệnh là đó.

Tôi cũng đã thử "HADOOP_PREFIX" thay vì "HADOOP_HOME" trong tệp bashrc nhưng vẫn có lỗi tương tự.

Tôi có thư mục này trong thư mục hadoop tôi,

[email protected]:/usr/local/hadoop$ ls -lha 
total 20K 
drwxr-xr-x 5 hduser hadoop 4.0K May 30 15:25 . 
drwxr-xr-x 12 root root 4.0K May 30 15:25 .. 
drwxr-xr-x 4 hduser hadoop 4.0K May 30 15:25 etc 
drwxr-xr-x 12 hduser hadoop 4.0K Jun 4 21:29 usr 
drwxr-xr-x 4 hduser hadoop 4.0K May 30 15:25 var 

tôi tải về phiên bản mới nhất của apache-hadoop tuần trước: hadoop-1.1.2-1.i386.rpm

+0

bạn đang sử dụng phiên bản Hadoop nào? – twid

+0

@twid - trông giống như 1.1.2 –

+0

bạn có thể nhận phiên bản bằng 'phiên bản hadoop ' – twid

Trả lời

6

tôi đã cố gắng thiết lập export HADOOP_HOME_WARN_SUPPRESS="TRUE" trong tệp conf/hadoop-env.sh của tôi và cảnh báo biến mất. Mặc dù, tôi vẫn không chắc chắn lý do tại sao cảnh báo này xuất hiện ở vị trí đầu tiên.

2

Phiên bash của bạn có thể vẫn có biến số HADOOP_HOME được xác định. Hãy thử echo $HADOOP_HOME và xem bạn có nhận được bất kỳ giá trị nào không.

Nếu bạn nhận được một giá trị cho HADOOP_HOME nó có nghĩa là vỏ được nó từ một số tập tin cấu hình, kiểm tra các tập tin (~/.bashrc, ~/.profile, /etc/profile/, /etc/bash.bashrc, vv) và loại bỏ các khẩu HADOOP_HOME biến.

Mở một phiên làm việc mới sau khi bạn đã thiết lập HADOOP_PREFIX biến môi trường thay vì HADOOP_HOME trong ~/.bashrc và bạn chắc chắn $HADOOP_HOME không được xuất khẩu trong bất kỳ tập tin cấu hình, và bạn không nên thấy rằng thông điệp cảnh báo.

0

$HADOOP_HOME không được chấp nhận là thông báo cảnh báo. Hôm nay tôi đã cài đặt bằng cách sử dụng hướng dẫn trang web Micheal trên Ubuntu và nó hoạt động tốt.

3

Thay thế HADOOP_HOME bằng cách HADOOP_PREFIX trong số ~/.bashrc giải quyết vấn đề này cho tôi.

Bạn đã thử đăng xuất khỏi phiên hiện tại sau khi thực hiện thay đổi này và thử lại chưa? Những thay đổi bạn thực hiện đối với tiểu sử bash của bạn sẽ có hiệu lực khi bạn đăng nhập lại vào trình bao.

1

Lỗi không được chấp nhận có nghĩa là một phiên bản cụ thể bạn đang sử dụng được coi là không quan trọng hoặc nó sẽ ngừng hỗ trợ sớm như đã đọc trên trang web.

Bằng cách này, tôi muốn nói rằng bạn đã cài đặt Openjdk trong hadoop. Những gì tôi đã làm là thay vì cài đặt openjdk tôi đã cài đặt Oraclejdk. Có lẽ bạn nên thử làm điều đó.

Xin cho biết điều này có hữu ích không.

Trân trọng.

Các vấn đề liên quan