A. org.apache.hadoop.bin B. org.apache.hadoop.core C. org.apache.hadoop.fs D. org.apache.hadoop.file
A. hdfs dfs -l B. hdfs dfs -s C. hdfs dfs -ls D. hdfs -l
A. listStatus(Path f) B. delete(Path f) C. mkdirs(Path f) D. open(Path f)
A. 自定义数据类型必须继承Writable接口 B. 自定义 MapReduce的key需要继承Writable接口 C. 自定义MapReduce的 value需要继承 WritableComparable接口 D. 自定义数据类型必须实现readFields(DataInput datainput)方法
A. UTF-8 B. Unicode C. ISO-8859-1 D. GBK
A. 在 MapReduce作业流程中可随意添加 Combiner B. 添加了Combiner意味着MapReduce程序的运行效率得到了优化 Combiner可以代替Reducer D. 应谨慎使用 Combiner
A. MapReduce程序求平均值 B. MapReduce程序求和 C. MapReduce程序求中位数 D. MapReduce程序对数据进行排序
A. Context.get("argName") B. Configuration.get("argName") Context.getConfiguration.getInt("argName") D. Context.getConfiguration get("argName")
A. 通过变量赋值进行传递 B. 通过get()和set()方法传递 C. 通过conf.set("argName", args[n])传递 D. 通过job.set("argName",args[n])传递
A. IntegerWritable B. StringWritable C. ListWritable D. MapWritable