2013-06-23 18 views
14

Tôi đang cố chạy bản đồ/trình giảm tốc trong java. Dưới đây là tác phẩm của tôiLoại không khớp trong khóa từ bản đồ: org.apache.hadoop.io.Text dự kiến, đã nhận org.apache.hadoop.io.LongWritable

WordCount.java

package counter; 


public class WordCount extends Configured implements Tool { 

public int run(String[] arg0) throws Exception { 
    Configuration conf = new Configuration(); 

    Job job = new Job(conf, "wordcount"); 

    job.setOutputKeyClass(Text.class); 
    job.setOutputValueClass(IntWritable.class); 

    job.setMapperClass(WordCountMapper.class); 
    job.setReducerClass(WordCountReducer.class); 

    job.setInputFormatClass(TextInputFormat.class); 
    job.setOutputFormatClass(TextOutputFormat.class); 

    FileInputFormat.addInputPath(job, new Path("counterinput")); 
    // Erase previous run output (if any) 
    FileSystem.get(conf).delete(new Path("counteroutput"), true); 
    FileOutputFormat.setOutputPath(job, new Path("counteroutput")); 

    job.waitForCompletion(true); 
    return 0; 
} 

public static void main(String[] args) throws Exception { 
    int res = ToolRunner.run(new Configuration(), new WordCount(), args); 
    System.exit(res); 

    } 
} 

WordCountMapper.java

public class WordCountMapper extends 
Mapper<LongWritable, Text, Text, IntWritable> { 
    private final static IntWritable one = new IntWritable(1); 
    private Text word = new Text(); 

    public void map(LongWritable key, Text value, OutputCollector<Text,IntWritable> output, Reporter reporter) 
    throws IOException, InterruptedException { 
     System.out.println("hi"); 
    String line = value.toString(); 
    StringTokenizer tokenizer = new StringTokenizer(line); 
    while (tokenizer.hasMoreTokens()) { 
     word.set(tokenizer.nextToken()); 
     output.collect(word, one); 
     } 
    } 
} 

WordCountReducer.java

public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> { 
    public void reduce(Text key, Iterator<IntWritable> values, 
     OutputCollector<Text,IntWritable> output, Reporter reporter) throws IOException, InterruptedException { 
     System.out.println("hello"); 
     int sum = 0; 
     while (values.hasNext()) { 
      sum += values.next().get(); 
     } 
     output.collect(key, new IntWritable(sum)); 
    } 
} 

Tôi nhận được lỗi sau

13/06/23 23:13:25 INFO jvm.JvmMetrics: Initializing JVM Metrics with 
processName=JobTracker, sessionId= 

13/06/23 23:13:25 WARN mapred.JobClient: Use GenericOptionsParser for parsing the 
arguments. Applications should implement Tool for the same. 
13/06/23 23:13:26 INFO input.FileInputFormat: Total input paths to process : 1 
13/06/23 23:13:26 INFO mapred.JobClient: Running job: job_local_0001 
13/06/23 23:13:26 INFO input.FileInputFormat: Total input paths to process : 1 
13/06/23 23:13:26 INFO mapred.MapTask: io.sort.mb = 100 
13/06/23 23:13:26 INFO mapred.MapTask: data buffer = 79691776/99614720 
13/06/23 23:13:26 INFO mapred.MapTask: record buffer = 262144/327680 
13/06/23 23:13:26 WARN mapred.LocalJobRunner: job_local_0001 
java.io.IOException: Type mismatch in key from map: expected org.apache.hadoop.io.Text, 
recieved org.apache.hadoop.io.LongWritable 
at org.apache.hadoop.mapred.MapTask$MapOutputBuffer.collect(MapTask.java:845) 
at org.apache.hadoop.mapred.MapTask$NewOutputCollector.write(MapTask.java:541) 
at org. 
apache.hadoop.mapreduce.TaskInputOutputContext.write(TaskInputOutputContext.java:80) 
at org.apache.hadoop.mapreduce.Mapper.map(Mapper.java:124) 
at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:144) 
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:621) 
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:305) 
at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:177) 
13/06/23 23:13:27 INFO mapred.JobClient: map 0% reduce 0% 
13/06/23 23:13:27 INFO mapred.JobClient: Job complete: job_local_0001 
13/06/23 23:13:27 INFO mapred.JobClient: Counters: 0 

Tôi nghĩ rằng nó không thể tìm thấy Mapper và giảm lớp. Tôi đã viết mã trong lớp chính, Nó đang nhận mặc định Mapper và lớp giảm tốc.

Trả lời

32

Thêm 2 dòng trong mã của bạn:

job.setMapOutputKeyClass(Text.class); 
job.setMapOutputValueClass(IntWritable.class); 

Bạn đang sử dụng TextOutputFormat mà phát ra chìa khóa LongWritable và giá trị văn bản theo mặc định, nhưng bạn đang phát ra chữ như chìa khóa và IntWritable như giá trị. Bạn cần phải nói điều này với gia đình.

HTH

+0

Tôi có 2 dòng trong tệp chính của mình – Neil

+0

Tôi không thể nhìn thấy chúng..Đó là "Bản đồ" OutputKeyClass – Tariq

+0

Xin lỗi. Lỗi của tôi. Tôi đã thử làm điều đó. Nhưng nó vẫn cho cùng một lỗi. – Neil

6

Đây có thể không phải là vấn đề của bạn nhưng tôi gặp vấn đề ngớ ngẩn này một lần. Đảm bảo bạn không trộn lẫn thư viện cũ và thư viện mới, tức là bản đồ so với Mapreduce. Chú thích @Overide trên bản đồ và phương pháp giảm của bạn. Nếu bạn thấy lỗi, bạn không ghi đè đúng phương pháp.

+0

cảm ơn bạn đã nhận xét này! -Trong trường hợp của tôi, chữ ký của phương thức map() được đặt tên nhầm với chữ in hoa: public void Map (..) Thay vì public void map (...) - Tôi có thể phát hiện nó bằng cách sử dụng @ Override- Again, Tnx! – Li3ro

3

tôi có một tương tự ngoại lệ stack trace do không đúng Mapper lớp học được đặt trong mã của tôi (typo :))

job.setMapperClass(Mapper.class) // Set to org.apache.hadoop.mapreduce.Mapper due to type 

ý rằng nhầm lẫn tôi đã sử dụng lớp Mapper từ gói MapReduce, tôi đã thay đổi nó để tùy chỉnh của tôi mapper class:

job.setMapperClass(LogProcMapperClass.class) // LogProcMapperClass is my custom mapper. 

Ngoại lệ được giải quyết sau khi tôi đã sửa lớp bản đồ.

Các vấn đề liên quan