加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

尚硅谷大数据技术之HBase

(2019-10-17 10:46:51)
标签:

it

java培训

linux

大数据

尚硅谷

分类: 大数据学科

6.3.1 官方HBase-MapReduce

1.查看HBaseMapReduce任务的执行

$ bin/hbase mapredcp

2.环境变量的导入

1)执行环境变量的导入(临时生效,在命令行执行下述操作)

$ export HBASE_HOME=/opt/module/hbase-1.3.1

$ export HADOOP_HOME=/opt/module/hadoop-2.7.2

$ export HADOOP_CLASSPATH=`${HBASE_HOME}/bin/hbase mapredcp`

 

2)永久生效:在/etc/profile配置

export HBASE_HOME=/opt/module/hbase-1.3.1

export HADOOP_HOME=/opt/module/hadoop-2.7.2

并在hadoop-env.sh中配置:(注意:在for循环之后配)

export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/opt/module/hbase/lib/*

3.运行官方的MapReduce任务

-- 案例一:统计Student表中有多少行数据

$ /opt/module/hadoop-2.7.2/bin/yarn jar lib/hbase-server-1.3.1.jar rowcounter student

 

-- 案例二:使用MapReduce将本地数据导入到HBase

1)在本地创建一个tsv格式的文件:fruit.tsv

1001  Apple Red

1002  Pear      Yellow

1003  Pineapple Yellow

 

2)创建HBase

hbase(main):001:0> create 'fruit','info'

 

3)在HDFS中创建input_fruit文件夹并上传fruit.tsv文件

$ /opt/module/hadoop-2.7.2/bin/hdfs dfs -mkdir /input_fruit/

$ /opt/module/hadoop-2.7.2/bin/hdfs dfs -put fruit.tsv /input_fruit/

 

4)执行MapReduceHBasefruit表中

$ /opt/module/hadoop-2.7.2/bin/yarn jar lib/hbase-server-1.3.1.jar importtsv \

-Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:color fruit \

hdfs://hadoop102:9000/input_fruit

 

5)使用scan命令查看导入后的结果

hbase(main):001:0> scan ‘fruit’

6.3.2 自定义HBase-MapReduce1

目标:将fruit表中的一部分数据,通过MR迁入到fruit_mr表中。

分步实现:

1.构建ReadFruitMapper类,用于读取fruit表中的数据

package com.atguigu;

 

import java.io.IOException;

import org.apache.hadoop.hbase.Cell;

import org.apache.hadoop.hbase.CellUtil;

import org.apache.hadoop.hbase.client.Put;

import org.apache.hadoop.hbase.client.Result;

import org.apache.hadoop.hbase.io.ImmutableBytesWritable;

import org.apache.hadoop.hbase.mapreduce.TableMapper;

import org.apache.hadoop.hbase.util.Bytes;

 

public class ReadFruitMapper extends TableMapper {

 

   @Override

   protected void map(ImmutableBytesWritable key, Result value, Context context)

   throws IOException, InterruptedException {

   //fruitnamecolor提取出来,相当于将每一行数据读取出来放入到Put对象中。

      Put put = new Put(key.get());

      //遍历添加column

      for(Cell cell: value.rawCells()){

          //添加/克隆列族:info

         if("info".equals(Bytes.toString(CellUtil.cloneFamily(cell)))){

             //添加/克隆列:name

             if("name".equals(Bytes.toString(CellUtil.cloneQualifier(cell)))){

                //将该列cell加入到put对象中

                put.add(cell);

                //添加/克隆列:color

             }else if("color".equals(Bytes.toString(CellUtil.cloneQualifier(cell)))){

                //向该列cell加入到put对象中

                put.add(cell);

             }

          }

      }

      //将从fruit读取到的每行数据写入到context中作为map的输出

      context.write(key, put);

   }

}

2 构建WriteFruitMRReducer类,用于将读取到的fruit表中的数据写入到fruit_mr表中

package com.atguigu.hbase_mr;

 

import java.io.IOException;

import org.apache.hadoop.hbase.client.Put;

import org.apache.hadoop.hbase.io.ImmutableBytesWritable;

import org.apache.hadoop.hbase.mapreduce.TableReducer;

import org.apache.hadoop.io.NullWritable;

 

public class WriteFruitMRReducer extends TableReducer {

   @Override

   protected void reduce(ImmutableBytesWritable key, Iterable values, Context context)

   throws IOException, InterruptedException {

      //读出来的每一行数据写入到fruit_mr表中

      for(Put put: values){

          context.write(NullWritable.get(), put);

      }

   }

}

3.构建Fruit2FruitMRRunner extends Configured implements Tool用于组装运行Job任务

//组装Job

   public int run(String[] args) throws Exception {

      //得到Configuration

      Configuration conf = this.getConf();

      //创建Job任务

      Job job = Job.getInstance(conf, this.getClass().getSimpleName());

      job.setJarByClass(Fruit2FruitMRRunner.class);

 

      //配置Job

      Scan scan = new Scan();

      scan.setCacheBlocks(false);

      scan.setCaching(500);

 

      //设置Mapper,注意导入的是mapreduce包下的,不是mapred包下的,后者是老版本

      TableMapReduceUtil.initTableMapperJob(

      "fruit", //数据源的表名

      scan, //scan扫描控制器

      ReadFruitMapper.class,//设置Mapper

      ImmutableBytesWritable.class,//设置Mapper输出key类型

      Put.class,//设置Mapper输出value值类型

      job//设置给哪个JOB

      );

      //设置Reducer

      TableMapReduceUtil.initTableReducerJob("fruit_mr", WriteFruitMRReducer.class, job);

      //设置Reduce数量,最少1

      job.setNumReduceTasks(1);

 

      boolean isSuccess = job.waitForCompletion(true);

      if(!isSuccess){

          throw new IOException("Job running with error");

      }

      return isSuccess ? 0 : 1;

   }

4.主函数中调用运行该Job任务

public static void main( String[] args ) throws Exception{

Configuration conf = HBaseConfiguration.create();

int status = ToolRunner.run(conf, new Fruit2FruitMRRunner(), args);

System.exit(status);

}

5.打包运行任务

$ /opt/module/hadoop-2.7.2/bin/yarn jar ~/softwares/jars/hbase-0.0.1-SNAPSHOT.jar

 com.z.hbase.mr1.Fruit2FruitMRRunner

提示:运行任务前,如果待数据导入的表不存在,则需要提前创建。

提示:maven打包命令:-P local clean package-P dev clean package install(将第三方jar包一同打包,需要插件:maven-shade-plugin


本教程由尚硅谷教育大数据研究院出品,如需转载请注明来源,欢迎大家关注尚硅谷公众号(atguigu)了解更多。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有