Utiliser MapReduce dans Apache Hadoop sur HDInsight
Apprenez à exécuter des tâches MapReduce sur des clusters HDInsight.
Exemple de données
HDInsight propose différents exemples de jeux de données, qui sont stockés dans les répertoires /example/data
et /HdiSamples
. Ces répertoires sont disponibles dans le stockage par défaut de votre cluster. Dans ce document, nous utilisons le fichier /example/data/gutenberg/davinci.txt
. Ce fichier contient les carnets de Leonardo da Vinci
.
Exemple MapReduce
Un exemple d’application de comptage de mots MapReduce est inclus dans votre cluster HDInsight. Cet exemple se trouve dans /example/jars/hadoop-mapreduce-examples.jar
sur le stockage par défaut pour votre cluster.
Le code Java suivant est la source de l’application MapReduce contenue dans le fichier hadoop-mapreduce-examples.jar
:
package org.apache.hadoop.examples;
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
public class WordCount {
public static class TokenizerMapper
extends Mapper<Object, Text, Text, IntWritable>{
private final static IntWritable one = new IntWritable(1);
private Text word = new Text();
public void map(Object key, Text value, Context context
) throws IOException, InterruptedException {
StringTokenizer itr = new StringTokenizer(value.toString());
while (itr.hasMoreTokens()) {
word.set(itr.nextToken());
context.write(word, one);
}
}
}
public static class IntSumReducer
extends Reducer<Text,IntWritable,Text,IntWritable> {
private IntWritable result = new IntWritable();
public void reduce(Text key, Iterable<IntWritable> values,
Context context
) throws IOException, InterruptedException {
int sum = 0;
for (IntWritable val : values) {
sum += val.get();
}
result.set(sum);
context.write(key, result);
}
}
public static void main(String[] args) throws Exception {
Configuration conf = new Configuration();
String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
if (otherArgs.length != 2) {
System.err.println("Usage: wordcount <in> <out>");
System.exit(2);
}
Job job = new Job(conf, "word count");
job.setJarByClass(WordCount.class);
job.setMapperClass(TokenizerMapper.class);
job.setCombinerClass(IntSumReducer.class);
job.setReducerClass(IntSumReducer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}
Pour créer vos propres applications MapReduce, consultez Développement d'applications MapReduce en Java pour HDInsight.
Exécution de l'application MapReduce
HDInsight peut exécuter des tâches HiveQL de différentes manières. Utilisez la table suivante pour choisir la méthode qui vous convient, puis cliquez sur le lien pour obtenir une présentation détaillée.
Élément à utiliser... | ...pour faire cela | ...depuis ce système d’exploitation cluster |
---|---|---|
SSH | Utilisation de la commande Hadoop via SSH | Linux, Unix, macOS X ou Windows |
Curl | Envoyer la tâche à distance à l'aide de REST | Linux, Unix, macOS X ou Windows |
Windows PowerShell | Envoyer la tâche à distance à l'aide de Windows PowerShell | Windows |
Étapes suivantes
Pour savoir comment utiliser les données dans HDInsight, consultez les documents suivants :